特点:这个激活函数是最新的SOTA激活函数。论文中提到,以上无边界(即正值可以达到任何高度)避免了由于封顶而导致的饱和,理论上对负值的轻微允许更好的梯度流,而不是像ReLU中那样的硬零边界,并且整个损失函数仍然保持了平滑性。
论文名为:Mish: A Self Regularized Non-Monotonic Neural Activation Function
激活函数尝试经验首先使用ReLU,速度最快,然后观察模型的表现。
如果ReLU效果不是很好,可以尝试Leaky ReLU或Maxout等变种。
尝试tanh正切函数(以零点为中心,零点处梯度为1)。
在深度不是特别深的CNN中,激活函数的影响一般不会太大。
Kaggle比赛,试试Mish?
附录参考1:https://www.cnblogs.com/missidiot/p/9378079.html
参考2:https://keras-cn.readthedocs.io/en/latest/other/initializations/
参考3:https://zhuanlan.zhihu.com/p/70810466
参考4:https://www.cnblogs.com/makefile/p/activation-function.html
参考5:https://www.cnblogs.com/missidiot/p/9378079.html