A U-Net
U-Net的架构如下
这包括两部分,网络的左侧分为四个阶段。每个阶段由两个卷积层组成,处理不同的分辨率特征图。左半部分执行的卷积使用3x3个内核,每个内核后面都有一个校正的线性单元(relu)。在每个阶段结束时,一个步长为2的,卷积核为2x2最大池操作进行向下采样。每个阶段后,特征通道的数量增加了一倍。网络的右侧也分为四个阶段,并且与左边部分相似。右部分的每个阶段包括两种操作。第一种是上采样,使特征地图的大小逐渐增大,直至达到原始输入图像的大小。第二个操作是将特征信道的数目减半,这样卷积核的数目在每一阶段之后就会减半。由于每次卷积后都会丢失一些图像信息,因此有必要从左侧的早期提起特征传递到右边部分。为了实现这一功能,作者将左侧部分与右侧部分连接起来。这样,网络可以获得一些细节,否则在卷积过程中会丢失这些细节。这将提高最终轮廓预测的质量。此外,这些连接将加速网络的收敛。
B-受深度监督的CNN
1) 网络架构。在本节中,我们将详细介绍所提议的网络体系结构。正如vgnet所证明的,表示深度有利于分类的准确性。为了获得更高的准确度,有利于利用更深层的网络分割前列腺图像。然而,更深层次的网络也带来了两个瓶颈。首先,更深的网络通常意味着更多的参数,这使得网络更容易过度拟合,特别是对于医学图像的应用,因为在训练集中标记的示例的数量总是有限的。深层网络的另一个瓶颈是计算资源的使用急剧增加。为了解决这个问题,我们建议在卷积过程中使用1X1卷积层。1X1卷积有两个主要优点。一方面可以减小网络的维数和参数个数,在一定程度上消除计算瓶颈;另一方面可以增加网络的深度,提高字符表示的能力。在我们的网络中,我们在多个阶段应用了1X1卷积,以提高分割的准确性。如GoogLeNet所示,较小的卷积核在二维网络中效率更高,较小的卷积核可以获得与大核相同的效果。结果表明,堆积小核的有效接收场大小等于一个大核的有效接收场大小。此外,较小的卷积核可以减少参数数量,同时消除计算瓶颈。所以在我们的网络中,卷积核的大小都设置为3x3。此外,池化操作对改善最先进的卷积网络具有重要意义,在一定程度上有助于克服过拟合,因此我们在每个阶段的末尾都增加了该阶段。
如上所述,卷积运算总是会导致图像信息丢失。通过将从早期阶段提取的特征传递到后期阶段,可以为后期阶段提供丢失的信息。最后,可以提高最终预测的效果。但是,这仍然会留下一些有待改进的空间。当我们将特征从早期阶段向前推进到后期阶段时,由于缺乏深入的监督,在隐藏层产生的特征在语义上的意义就不那么明显了。更重要的是,它们将显著影响训练和预测效率。为了克服这些问题,我们在网络中添加了八个深度监控层。在训练过程中,所有这些监督层都对训练过程进行监督。有时,由于网络的深度很大,因此以有效的方式将梯度传播回所有层的能力是一个值得关注的问题。附加的监控层可以通过保留早期的梯度很好地解决这个问题。
综上所述,所提议的网络包含三个部分,如图所示
前五个阶段组成一个压缩路径,该压缩路径从数据中提取特征,并以适当的步幅降低分辨率。从顶部到第四阶段,每一阶段的特征通道数量翻了一倍。在第一阶段,特征通道的数量是64个,例如,经过四个阶段后,特征通道的数量增加到512个。在每个阶段中,我们执行两个3x3卷积,一个1x1卷积和一个2x2且步长为2的最大池化操作进行下采样。相反,后面的四个阶段由一个扩展路径组成,该路径对特征映射进行向上采样,并将特征通道的数量减半,直到达到其原始大小。除了最大池化操作外,这些阶段的操作与压缩路径中的阶段相同。在监督层部分,每个监督层由一个上采样层和一个反卷积层组成。上采样层对特征图进行上采样,然后通过反卷积层得到分割结果。在训练过程中,这些监控层根据分割结果与真实情况的差异来控制训练过程。与原U-Net相比,该网络具有一定的优越性。例如,1X1卷积使网络变得更深,也不会陷入计算困难。而最大池化操作对于改进最先进的卷积网络和克服过度拟合具有重要意义。此外,附加的深度监督层使得残余信息具有意义,提高了模型的收敛效率。