七月在线题库目录

   闲来无聊,整理下,以飨各位,有的没按照顺序来, 类似的知识点放在一起了,觉得自己的知识点掌握的差不多的童鞋,可以考虑一边看题目一边有声回答,就当做这就是面试。

七月在线题库目录

七月在线题库目录

 

需要进行公式推导的

SVM

LR

贝叶斯

LSTM 

LDA

 

 

 机器学习:

1、请简要介绍下SVM   ()

2、哪些机器学习算法不需要做归一化处理?

3、对于树形结构为什么不需要归一化?

4、在k-means或kNN,我们常用欧氏距离来计算最近的邻居之间的距离,有时也用曼哈顿距离,请对比下这两种距离的差别

5、数据归一化(或者标准化,注意归一化和标准化不同)的原因

()

42、机器学习中,为何要经常对数据做归一化

()

47、标准化与归一化的区别?

6、请简要说说一个完整机器学习项目的流程

7、逻辑斯特回归为什么要对特征进行离散化。

34、简单介绍下logistics回归?

8、简单介绍下LR (把LR从头到脚都给讲一遍。

 ()

(https://blog.csdn.net/zouxy09/article/details/20319673)

9、overfitting怎么解决

41、防止过拟合的方法

10、LR和SVM的联系与区别

11、什么是熵 (https://blog.csdn.net/v_july_v/article/details/40508465)

14、熵、联合熵、条件熵、相对熵、互信息的定义

21、什么是最大熵

12、说说梯度下降法。

13、牛顿法和梯度下降法有什么不同?

15、说说你知道的核函数

16、什么是拟牛顿法(Quasi-Newton Methods)?

17、kmeans的复杂度?

18、请说说随机梯度下降法的问题和挑战?

19、说说共轭梯度法?

20、对所有优化问题来说, 有没有可能找到比現在已知算法更好的算法?

22、LR与线性回归的区别与联系

23、简单说下有监督学习和无监督学习的区别

24、请问(决策树、Random Forest、Booting、Adaboot)GBDT和XGBoost的区别是什么?

(https://blog.csdn.net/v_july_v/article/details/7577684)
(https://blog.csdn.net/ns708865818/article/details/51426624)

25、了解正则化么

32、L1和L2的区别

33、L1和L2正则先验分别服从什么分布

26、说说常见的损失函数?

27、为什么xgboost要用泰勒展开,优势在哪里?

29、xgboost如何寻找最优特征?是又放回还是无放回的呢?

28、协方差和相关性有什么区别?

30、谈谈判别式模型和生成式模型?

31、线性分类器与非线性分类器的区别以及优劣

35、说一下Adaboost,权值更新公式。当弱分类器是Gm时,每个样本的的权重是w1,w2...,请写出最终的决策公式。()

36、经常在网上搜索东西的朋友知道,当你不小心输入一个不存在的单词时,搜索引擎会提示你是不是要输入某一个正确的单词,比如当你在Google中输入“Julw”时,

系统会猜测你的意图:是不是要搜索“July”,如下图所示:

七月在线题库目录



这叫做拼写检查。根据谷歌一员工写的文章显示,Google的拼写检查基于贝叶斯方法。请说说的你的理解,具体Google是怎么利用贝叶斯方法,实现"拼写检查"的功能。
37、为什么朴素贝叶斯如此“朴素”?
45、简单说说贝叶斯定理 (https://blog.csdn.net/v_july_v/article/details/40984699) 38、请大致对比下plsa和LDA的区别 () 39、请简要说说EM算法 40、KNN中的K如何选取的? (https://blog.csdn.net/v_july_v/article/details/8203674) 43、什么最小二乘法?最小二乘法跟SVM有什么联系呢?请参见《支持向量机通俗导论(理解SVM的三层境界) 44、梯度下降法找到的一定是下降最快的方向么?
46、怎么理解决策树、xgboost能处理缺失值?而有的模型(svm)对缺失值比较敏感。
(https://www.zhihu.com/question/58230411) 48、随机森林如何处理缺失值? 49、随机森林如何评估特征重要性? 50、优化Kmeans? 51、KMeans初始类簇中心点的选取。 52、解释对偶的概念。 53、如何进行特征选择? 54、衡量分类器的好坏? 55、机器学习和统计里面的auc的物理意义是啥?(https://www.zhihu.com/question/39840928) 56、数据预处理。 57、观察增益gain, alpha和gamma越大,增益越小? 58、什麽造成梯度消失问题? 59、简单说说特征工程。 60、你知道有哪些数据处理和特征工程的处理?
61、准备机器学习面试应该了解哪些理论知识? 62、数据不平衡问题 63、特征比数据量还大时,选择什么样的分类器?
( ) 64、常见的分类算法有哪些? 65、常见的监督学习算法有哪些? 66、说说常见的优化算法及其优缺点? 67、特征向量的归一化方法有哪些? 68、RF与GBDT之间的区别与联系? 69、

七月在线题库目录

70、请比较下EM算法、HMM、CRF 71、带核的SVM为什么能分类非线性问题? 72、请说说常用核函数及核函数的条件

73 boosting与bagging的区别

74 逻辑回归

75、什么是共线性, 跟过拟合有什么关联?

76、机器学习中,有哪些特征选择的工程方法?  (答案有点怪异

77、用贝叶斯机率说明Dropout的原理

78、对于维度极低的特征,选择线性还是非线性分类器?

79、请问怎么处理特征向量的缺失值

80、SVM、LR、决策树的对比。

81、什么是ill-condition病态问题?

82、简述KNN最近邻分类算法的过程?

83、常用的聚类划分方式有哪些?列举代表算法。

84、什么是偏差与方差? (过拟合与欠拟合)

85、解决bias和Variance问题的方法是什么?

86、采用 EM 算法求解的模型有哪些,为什么不用牛顿法或梯度下降法?

87、xgboost怎么给特征评分?

88、什么是OOB?随机森林中OOB是如何计算的,它有什么优缺点?

89、推导朴素贝叶斯分类 P(c|d),文档 d(由若干 word 组成),求该文档属于类别 c 的概率, 并说明公式中哪些概率可以利用训练集计算

90、请写出你了解的机器学习特征工程操作,以及它的意义

 

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zzxxyw.html