L1正则和L2正则的区别详解 (2)

L1范数符合拉普拉斯分布,是不完全可微的。表现在图像上会有很多角出现。这些角和目标函数的接触机会远大于其他部分。就会造成最优值出现在坐标轴上,因此就会导致某一维的权重为0 ,产生稀疏权重矩阵,进而防止过拟合。

L2范数符合高斯分布,是完全可微的。和L1相比,图像上的棱角被圆滑了很多。一般最优值不会在坐标轴上出现。在最小化正则项时,可以是参数不断趋向于0,最后活的很小的参数。

画图表示:
L2正则:

在这里插入图片描述


在L2正则下,w从P1向P2移动,w减小,L2正则项使参数变小。

L1正则:

在这里插入图片描述


在L1正则下,w向w2轴移动,到达w2轴即变为零,因为容易稀疏化。

参考

Deep Learning Chapter 7.1.1 & 7.1.2

正则项L1和L2的区别

比较全面的L1和L2正则化的解释

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zzsfwj.html