听说你不会调参?TextCNN的优化经验Tricks汇总 (5)

实验五:对数据数据重采样,在重采样的时候,限制了部分query的权重,相比baseline 提升0.03%,目的是增加数据的多样性,提升了0.03%

实验六:在实验四的基础上,随机去掉20%的A特征,相比baseline 提升0.28%, 并没有优于随机去掉10%,最终选择随机去掉10%A特征

实验七:在实验四的基础上,统一来源,相比baseline 提升了0.64%

实验八:在实验七的基础上,将B特征引入训练,相比baseline 提升了1.14%

    大家不要觉得这些实验很多觉得很麻烦,其实在实际工作中,通常来说,最有效的方法是:分析badcase,引入更有区分度的特征,如果你的项目效果不好,再试试引入dropout等等。具体的参数如何调整,是根据具体的项目而定,但是不管如何优化,都要先跑baseline。在baseline的基础上再进行优化。其次快速迭代实验,做好实验记录也是非常有必要的

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zyzwyj.html