深度学习——卷积神经网络入门 (2)

深度学习——卷积神经网络入门

卷积层:设定一个卷积核,又称滤波器。这里设定为5*5*3,通道数3要和上一步骤的通道数一样,此处为输入图片的通道数。一个卷积核提取的是一个特征,设定多个卷积提取的是多个不同特征

设定一个步长。步长意为滤波器每次走的步数,步长为1时,最后得到的矩阵大小一样,为2时,矩阵大小就成了原矩阵的二分之一。

深度学习——卷积神经网络入门

进行卷积运算(原始图像是真实图像,其经过卷积运算后的矩阵,称为特征图像,feature_map):

深度学习——卷积神经网络入门

深度学习——卷积神经网络入门

深度学习——卷积神经网络入门

步长也分横向纵向的

很多时候为了避免图像内的像素点的特征总是被重复提取,以及边缘的特征的值总是很少被提取,所以可以在原始图片数据矩阵四周填充几圈0,称为padding填充。 

此例是三个通道的原始图像,所以有三层的滤波器,卷积操作后生成了三个特征图。

我们通过第一个卷积核进行的操作提取了(原图第一层通道)的不同位置的同样特征,由于所有位置都是用的统一卷积核,即神经元之间连接的权重不变

我们通过第2个卷积核进行的操作提取了(原图第2层通道)的不同位置的同样特征,然后第三层。

最后,三个通道的总共三个特征图加一起,再加个偏置项,组成卷积层的输出的矩阵(矩阵数就是想提取的特征数),见过程演示

过程演示:

激活:

将卷积层的输出结果做一次非线性的映射,也就是做一次“激活”

  如果输入变化很小,导致输出结构发生截然不同的结果,这种情况是我们不希望看到的,为了模拟更细微的变化,输入和输出数值不只是0到1,可以是0和1之间的任何数,

激活函数是用来加入非线性因素的,因为线性模型的表达力不够 
这句话字面的意思很容易理解,但是在具体处理图像的时候是什么情况呢?我们知道在神经网络中,对于图像,我们主要采用了卷积的方式来处理,也就是对每个像素点赋予一个权值,这个操作显然就是线性的。但是对于我们样本来说,不一定是线性可分的,为了解决这个问题,我们可以进行线性变化,或者我们引入非线性因素,解决线性模型所不能解决的问题。

常用非线性激活函数

◆Sigmoid(S形函数)
◆Tanh(双曲正切,双S形函数)
◆ReLU
◆Leaky ReLU
◆ELU

其中前两个s形激活函数需要先对输入数据归一化,否则激活后的值都会进入平坦区,使隐层的输出全部趋同

深度学习——卷积神经网络入门

深度学习——卷积神经网络入门

深度学习——卷积神经网络入门

深度学习——卷积神经网络入门

深度学习——卷积神经网络入门

深度学习——卷积神经网络入门

深度学习——卷积神经网络入门

激活之后可选用dropout来解决过拟合问题

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zwwjys.html