推荐阅读时间:5min~8min 文章内容: 机器学习/深度学习面试题
机器学习这么火,BAT等一线互联网大厂当然是最大的需求方,想要成为 BAT 的机器学习工程师吗,快来看看这些面试题吧。
1. 谈谈LR 和 SVM 的联系与区别
相同点:
不同点:
2. 为什么 xgboost 要用泰勒展开,优势在哪里
xgboost 使用了一阶和二阶偏导, 二阶导数有利于梯度下降的更快更准. 使用泰勒展开取得函数做自变量的二阶导数形式, 可以在不选定损失函数具体形式的情况下, 仅仅依靠输入数据的值就可以进行叶子分裂优化计算, 本质上也就把损失函数的选取和模型算法优化/参数选择分开了. 这种去耦合增加了xgboost 的适用性, 使得它按需选取损失函数, 可以用于分类, 也可以用于回归。
3. LSTM 结构推导,为什么比 RNN 好
推导 forget gate, input gate, cell state, hidden information 等的变化;因为 LSTM 有进有出且当前的cell informaton 是通过 input gate 控制之后叠加的, RNN 是叠乘,因此 LSTM 可以防止梯度消失或者爆炸。
4. 为什么朴素贝叶斯如此“朴素”
因为它假定所有的特征在数据集中的作用是同样重要和独立的。正如我们所知,这个假设在现实世界中是很不真实的,因此,说朴素贝叶斯真的很“朴素”。
5. 简单说下有监督学习和无监督学习的区别
有 监 督 学 习 : 对 具 有 标 记 的 训 练 样 本 进 行 学 习 , 以 尽 可 能 对 训 练 样 本 集 外 的 数 据 进 行 分 类 预 测 。(LR,SVM,BP,RF,GBDT)
无监督学习:对未标记的样本进行训练学习,比发现这些样本中的结构知识。(KMeans,DL)
因为篇幅限制,剩下的面试题内容请在后台回复关键词“BAT面试题”领取。
作者:无邪,个人博客:脑洞大开,专注于机器学习研究。