转移性学习对阿尔茨海默病分类的研究
原文链接
摘要
将cv用于研究需要大量的训练图片,同时需要对深层网络的体系结构进行仔细优化。该研究尝试用转移学习来解决这些问题,使用从大基准数据集组成的自然图像得到的预训练权重来初始化最先进的VGG和Inception结构,使用少量的MRI图像来重新训练全连接层。采用图像熵选择最翔实的切片训练,通过对OASIS MRI数据集的实验,他们发现,在训练规模比现有技术小近10倍的情况下,他们的性能与现有的基于深层学习的方法相当,甚至更好
介绍
AD的早期诊断可以通过机器学习自动分析MRI图像来实现。从头开始训练一个网络需要大量的资源并且可能结果还不够好,这时候可以选择使用微调一个深度网络来进行转移学习而不是重新训练的方法可能会更好。该研究使用VGG16和Inception两个流行的CNN架构来进行转移学习。结果表明,尽管架构是在不同的领域进行的训练,但是当智能地选择训练数据时,预训练权值对AD诊断仍然具有很好的泛化能力
由于研究的目标是在小训练集上测试转移学习的鲁棒性,因此仅仅随机选择训练数据可能无法为其提供表示MRI足够结构变化的数据集。所以,他们选择通过图像熵提供最大信息量的训练数据。结果表明,通过智能训练选择和转移学习,可以达到与从无到有以最小参数优化训练深层网络相当甚至更好的性能
方法
CNN的核心是从输入图像中抽取特征的卷积层,卷积层中的每个节点与空间连接的神经元的小子集相连,为了减少计算的复杂性,一个最大池化层会紧随着卷积层,多对卷积层和池化层之后会跟着一个全连接层,全连接层学习由卷积层抽取出来的特征的非线性关系,最后是一个soft-max层,它将输出归一化到期望的水准
因为小的数据集可能会使损失函数陷入local minima,该研究使用转移性学习的方法来尽量规避这种情况,即使用大量相同或不同领域的数据来初始化网络,仅使用训练数据来重新训练最后的全连接层
研究中使用两个流行的架构:
VGG16
VGG16是一个16层的网络,它是第一个将网络深度拓展到16-19层的使用3*3卷积核的架构
Inception
Inception架构是Google构建的深度学习架构的变体,本文章中使用Inception V4,Inception的突破遭遇实现了通过改变卷积层的连接方式可以学习非线性函数。同时取代全连接,使用全局平均池化,之后连接一个用于分类的softmax层,这样我们使用的参数就变得更少,以此可以降低过耦合
最翔实的数据选择
在之前的方法中,数据的选择都是随机的,而此研究提取最翔实的切片来训练网络,使用计算每个切片的图像熵的方法来进行选取,熵的计算方法
\[
H = -\sum_1^M p_i log(p_i)
\]
其中,M为概率为p1,p2...,pM的样例的集合
熵提供了切片中的变化的度量。因此,如果按熵降序对切片进行排序,熵值最高的切片可以被认为是信息量最大的图像,并且使用这些图像进行训练将提供更好的鲁棒性
实验
在实验中数据集合来自从416个主题中随机选择的200个主题,其中AD和HC组各一半,然后从每个三维扫描的轴向平面抽取信息熵最大的32张图片来组成6400张训练图片
VGG16的输入为 150 * 150,Inception V4输入为 299 * 299
5折交叉验证在此被使用,同时将数据按8:2分为训练和测试
预训练网络权重来自ImageNet,对于VGG16,使用batch_size=40,epochs=100,优化器使用RMSProp;对于Inception V4使用batch_size=8,epochs=100,随机梯度下降学习率围殴0.0001优化的设置
结果
Model Avg.ACC.(st.dev)(%)VGG16(from scratch) 74.12(1.55)
VGG16(transfer learning) 92.3(2.42)
Inception V4(transfer learning) 96.25(1.2)
总结
该研究特点是使用预训练模型,同时使用图片的熵来挑选图片进行训练。
作者认为该研究的优势是仅使用6400张的小数据集就达到了一个比较可人的精度,但是此6400张图片是基于所有的200个主题的图片进行挑选的,这种数据数量的算法是否存在问题
原文链接
摘要
皮层灰质体积、皮层厚度和皮层下体积已成功地用于阿尔茨海默病的诊断,但是目前这些解剖MRI措施主要单独使用。为了进一步提高AD的诊断水平,该研究提出了一种基于多尺度的MRI图像ROI特征和区域间特征提取方法,用于区分AD、MCI(包括MCIc和MCIC)和健康对照(HC)