深度学习“深度学习”-概念篇 (2)

neural networks employ a hierarchy of layered filters in which each layer considers information from a prior layer (or the operating environment), and then passes its output (and possibly the original input), to other layers.

这一种解释特别适用于图像识别的卷积神经网络。比如说浅层的神经元可以学习到图片某个区域是否存在曲线/直线/弧线,深层的神经元可以学习到图片的某个区域是否存在一只眼睛/耳朵/鼻子,更深层的神经元可以学习到这张图片是否存在一只猫/狗。就像2009年ICML的一篇论文[2] :

The visual world can be described at many levels: pixel intensities, edges, object parts, objects, and beyond. The prospect of learning hierarchical models which simultaneously represent multiple levels has recently generated much interest. Ideally, such “deep” representations would learn hierarchies of feature detectors, and further be able to combine top-down and bottom-up processing of an image. For instance, lower layers could support object detection by spotting low-level features indicative of object parts. Conversely, information about objects in the higher layers could resolve lower-level ambiguities in the image or infer the locations of hidden object parts.

一个卷积网络的第一、二层的输出

本图取自上文提到的论文,将一个卷积网络的第一、二层的数值输出以图片数据格式查看后可以看到,这个卷积网络的第一、二层其实就是一个能够识别类似“黑线、白线、黑线”这样的组合的分类器。

我们也可以认为,浅层的神经元是深层神经元的预处理器,浅层的logistic回归模型做了一些如“这里有直线,那里有弧线”,或者“这一点属于A类,那一点属于B类”这样的简单分类工作,深层的logistic回归模型做一些“这只是猫,那只是狗”这样的高层次的分类工作。

Q:深度学习作为一门学问,其知识结构是怎样的?

《Deep Learning》[5]作为目前比较权威的深度学习教科书,其编排是是很能反映目前这一学科的知识体系的。书的第一章介绍了该书的知识结构,这里截取了第二第三部分(第一部分是基本的数学和机器学习知识)。

《Deep Learning》知识结构(部分)

由图可知,作者把目前深度学习的知识体系分为两部分,一部分是比较成熟的基础部分,另一部分是仍在发展的前沿部分。作为深度学习这一学科的基础,深度前馈神经网络(多层感知机)体现了深度学习最最基础的思想,定义了深度神经网络的基本单元、一般结构,并凝结了一套设计网络和优化网络的通用方法。其他所有变种都衍生自深度前馈神经网络。掌握了前馈网络,就可以进一步学习正则化和更多优化技巧,前者是一类提高模型泛化能力的方法,后者是提高神经网络性能和加快训练效率的方法。除了设计和调优的技巧以外,还要进一步学习前馈神经网络的一些改良版本,相较于普通的前馈网络,这些改良版本针对特定问题做了特定的网络结构改进,在各自的领域有高于普通前馈网络的效果。最典型的是卷积神经网络循环神经网络。前者在图像识别领域有奇效,后者主要用于序列建模,比如自然语言处理。学完这四个模块的比较理论化的内容,就可以通过一些前辈的经验掌握一些最佳实践应用

以上就是深度学习的基础内容。至于更高级的内容,比如自编码器表示学习与蒙特卡洛方法的结合(ALphaGo),推理,以及没有在《Deep Learning》出现的强化学习,这些研究方向还在蓬勃发展。想要学习这些前沿技术,除了掌握扎实的基础知识和阅读《Deep Learning》这类综述文献意外,也只能从会议和期刊的论文中学习了。

Q:“深度学习可解释性差”是什么意思?

解释,就是在观察的基础上进行思考,合理地说明事物变化的原因,事物之间的联系,或者是事物发展的规律。(搜狗百科)

“深度学习可解释性差”,意思就是我们很难说明一条样本数据灌进一个神经网络出来这样一个预测结果的原因,这造成的直接后果就是很多时候我们不知道怎么针对一个神经网络做优化。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zyddpw.html