激活函数总结 (4)

特点:这个激活函数是最新的SOTA激活函数。论文中提到,以上无边界(即正值可以达到任何高度)避免了由于封顶而导致的饱和,理论上对负值的轻微允许更好的梯度流,而不是像ReLU中那样的硬零边界,并且整个损失函数仍然保持了平滑性。

论文名为:Mish: A Self Regularized Non-Monotonic Neural Activation Function

激活函数尝试经验

首先使用ReLU,速度最快,然后观察模型的表现。

如果ReLU效果不是很好,可以尝试Leaky ReLU或Maxout等变种。

尝试tanh正切函数(以零点为中心,零点处梯度为1)。

在深度不是特别深的CNN中,激活函数的影响一般不会太大。

Kaggle比赛,试试Mish?

附录

参考1:https://www.cnblogs.com/missidiot/p/9378079.html

参考2:https://keras-cn.readthedocs.io/en/latest/other/initializations/

参考3:https://zhuanlan.zhihu.com/p/70810466

参考4:https://www.cnblogs.com/makefile/p/activation-function.html

参考5:https://www.cnblogs.com/missidiot/p/9378079.html

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zzsjww.html