『深度概念』度量学习中损失函数的学习与深入理解 (2)

这就是softmax loss函数,

{W^T_{j}x_i+b_{j}}

『深度概念』度量学习中损失函数的学习与深入理解

​表示全连接层的输出。在计算Loss下降的过程中,我们让

{W^T_{j}x_i+b_{j}}

『深度概念』度量学习中损失函数的学习与深入理解

​ 的比重变大,从而使得log() 括号内的数更变大来更接近1,就会 log(1) = 0,整个loss就会下降。

其中W和b就是分类层参数,其实就是最后学习到的分类中心,对应下图就是每种颜色对称轴,各种颜色点的集合就是x=encoder(row),就是分类层前面一层的输出。

è¿éåå¾çæè¿°

『深度概念』度量学习中损失函数的学习与深入理解

下面图如何理解呢?倒数第二层输出不应该是很多维吗?

形象的理解:当做是一个球体,但是为了可视化方便,把球给压扁了。就成为了二维的图像。(个人理解)

如何操作?应该通过降维方法。

这样如何完成分类的?

我们知道,softmax分类时取的是最大那类(argmax),只要目标那一类大于其他类就可以了。反映在图上,每个点与各类中心的距离(W与b决定),距离哪个中心最近就会分成哪一类。

 

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zwwwyy.html