这篇文章的内容到这里就差不多了,这次以基础的内容为主,简单的梳理一下,首先我们上次知道了构建神经网络的两个步骤:搭建子模块和拼接子模块。而这次就是学习各个子模块的使用。从比较重要的卷积层开始,学习了1d 2d 3d 卷积到底在干什么事情,采用了动图的方式进行演示,卷积运算其实就是通过不同的卷积核去提取不同的特征。然后学习了 Pytorch 的二维卷积运算及转置卷积运算,并进行了对比和分析了代码上如何实现卷积操作。 第二块是池化运算和池化层的学习,关于池化,一般和卷积一块使用,目的是收集和合并卷积提取的特征,去除一些冗余,分为最大池化和平均池化。然后学习了全连接层,这个比较简单,不用多说,最后是非线性激活函数,比较常用的 sigmoid,tanh, relu等。 今天的内容就到这里,模型模块基本上到这里也差不多了,根据我们的那个步骤:数据模块 -> 模型模块 -> 损失函数 -> 优化器 -> 迭代训练。所以下一次开始学习损失函数模块,但是在学习损失函数之前,还得先看一下常用的权重初始化方法,这个对于模型来说也是非常重要的。所以下一次整理权值初始化和损失函数。
0802_转载-nn模块中的网络层介绍
内容版权声明:除非注明,否则皆为本站原创文章。