七月在线题库目录 (2)

 

 深度学习: 1、CNN的卷积核是单层的还是多层的? 2、什么是卷积? 3、什么是CNN的池化pool层? 4、简述下什么是生成对抗网络。 5、学梵高作画的原理是什么? 6、请简要介绍下tensorflow的计算图 7、你有哪些deep learning(rnn、cnn)调参的经验? (*) 8、CNN最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解出来?为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性?
23、简单说说CNN常用的几个模型 (*)
34、请详细说说CNN的工作原理 35、CNN究竟是怎样一步一步工作的? 39、CNN是什么,CNN关键的层有哪些? 36、聊一聊基于深度学习的目标检测技术演进:R-CNN、Fast R-CNN、Faster R-CNN (*) 37、rcnn、fast-rcnn和faster-rcnn三者的区别是什么 (*) 32、简单说下sigmoid激活函数  9、LSTM结构推导,为什么比RNN好? 33、如何理解LSTM网络 10、Sigmoid、Tanh、ReLu这三个激活函数有什么缺点或不足,有没改进的激活函数。 11、为什么引入非线性激励函数? 12、请问人工神经网络中为什么ReLu要好过于tanh和sigmoid function? 13、为什么LSTM模型中既存在sigmoid又存在tanh两种激活函数? 14、如何解决RNN梯度爆炸和弥散的问题?
梯度爆炸就是由于初始化权值过大,前面层会比后面层变化的更快,就会导致权值越来越大。 17、如何解决梯度消失和梯度膨胀 26、梯度爆炸会引发什么问题? 27、如何确定是否出现梯度爆炸? 28、如何修复梯度爆炸问题? 15、什麽样的资料集不适合用深度学习? 16、广义线性模型是怎被应用在深度学习中? 19、深度学习常用方法 20、请简述神经网络的发展史 21、神经网络中激活函数的真正意义?一个激活函数需要具有哪些必要的属性?还有哪些属性是好的属性但不必要的? 22、梯度下降法的神经网络容易收敛到局部最优,为什么应用广泛? 24、为什么很多做人脸的Paper会最后加入一个Local Connected Conv? 29、LSTM神经网络输入输出究竟是怎样的?
30、什么是RNN? (*) 31、RNN是怎么从单层网络一步一步构造的? (*) 38、在神经网络中,有哪些办法防止过拟合? 40、GRU是什么?GRU对LSTM做了哪些改动?

 

 

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zzxxyw.html