大汇总 | 一文学会八篇经典CNN论文

[2014.09]inception v1: https://arxiv.org/pdf/1409.4842.pdf

[2015.02]inception v2: https://arxiv.org/pdf/1502.03167.pdf

[2015.12]inception v3: https://arxiv.org/pdf/1512.00567.pdf

[2016.02]inception v4: https://arxiv.org/pdf/1602.07261.pdf

【microsoft】

[2015.12]resnet : https://arxiv.org/pdf/1512.03385v1.pdf

【Facebook】

[2016.11]resnext : https://arxiv.org/pdf/1611.05431.pdf

【CORNELL & Tsinghua & Facebook】

[2016.08]DenseNet : https://arxiv.org/pdf/1608.06993.pdf

【momenta】

[2017.09]SEnet : https://arxiv.org/pdf/1709.01507.pdf

Inception v1

【主要贡献】
在传统网络中,神经网络都是通过增加深度来扩展的。Inception结构的最大特点是从网络的宽度上进行改进,通过concat操作将经过不同kernel尺度处理的feature map进行拼接。

【其他贡献】
使用global average pooling代替全连接层,减小参数数量;使用1*1卷积层来缩减通道数量

Inception v2

【主要贡献】
首次提出BN层,减少Internal Covariate Shift。

Inception v3

【主要贡献】
提出卷积分解,用两个3*3卷积核代替5*5的卷积,用三个3*3卷积核代替7*7卷积核,后来提出用1*n,n*1的卷积核代替n*n

Inception v4

【主要贡献】
基于inception v3的基础上,引入残差结构,提出了inception-resnet-v1和inception-resnet-v2,并修改inception模块提出了inception v4结构。

【值得一提的是】
基于inception v4的网络实验发现在不引入残差结构的基础上也能达到和inception-resnet-v2结构相似的结果,从而认为何凯明等人认为的:“要想得到深度卷积网络必须使用残差结构”这一观点是不完全正确的。

Inception v4的结构

感觉到Inception v4,结构就有点诡异而复杂了,有点魔改的味道。

Inception-resnet-v1

就是有一个残差结构,其他部分也是跟inception v4类似。

Inception-resnet-v2

与incpetion-resnet-v1差别不大,在通道数上做了修改。

实验结果对比

在inception-resnet-v1与inception v3的对比中,inception-resnet-v1虽然训练速度更快,不过最后结果有那么一丢丢的差于inception v3;

在inception-resnet-v2与inception v4的对比中,inception-resnet-v2的训练速度更块,而且结果比inception v4也更好一点。所以最后胜出的就是inception-resnet-v2。

【个人建议把重点放在inceptionv1-v3上,对v4了解一下即可】

Resnet

resnet提出是在Inception v3和inception v4中间,这样时间线就连上了。

【主要贡献】
残差结构提出解决了梯度消失的问题。

左边是基本的结构,右边是使用1*1卷积核来降低参数。

下图是VGG网络,plain网络和残差网络的对比,重点就是体现残差网络的残差结构的跳跃的感觉。

ResNext

增加网络的深度depth是改进网络的一种思路,GoogLeNet增加网络的宽度width是另一种思路,ResNext提出了一种新的方式叫做cardinality,基数。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zyxxzz.html