前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >BAT机器学习/深度学习面试300题

BAT机器学习/深度学习面试300题

作者头像
abs_zero
修改2018-05-26 14:48:41
1.9K9
修改2018-05-26 14:48:41
举报
文章被收录于专栏:AI派AI派

推荐阅读时间:5min~8min 文章内容: 机器学习/深度学习面试题

机器学习这么火,BAT等一线互联网大厂当然是最大的需求方,想要成为 BAT 的机器学习工程师吗,快来看看这些面试题吧。

1. 谈谈LR 和 SVM 的联系与区别

相同点:

  • LR 和 SVM 都可以处理分类问题,且一般都用于处理线性二分类问题(在改进的情况下可以处理多分类问题)
  • 两个方法都可以增加不同的正则化项,如 l1、 l2 等等。所以在很多实验中,两种算法的结果是很接近的

不同点:

  • LR 是参数模型, SVM 是非参数模型。
  • 从目标函数来看,区别在于逻辑回归采用的是 logistical loss, SVM 采用的是 hinge loss,这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重。
  • SVM 的处理方法是只考虑 support vectors,也就是和分类最相关的少数点,去学习分类器。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重。
  • 逻辑回归相对来说模型更简单,好理解,特别是大规模线性分类时比较方便。而 SVM 的理解和优化相对来说复杂一些, SVM 转化为对偶问题后,分类只需要计算与少数几个支持向量的距离,这个在进行复杂核函数计算时优势很明显,能够大大简化模型和计算。
  • logic 能做的 svm 能做,但可能在准确率上有问题, svm 能做的 logic 有的做不了。

2. 为什么 xgboost 要用泰勒展开,优势在哪里

xgboost 使用了一阶和二阶偏导, 二阶导数有利于梯度下降的更快更准. 使用泰勒展开取得函数做自变量的二阶导数形式, 可以在不选定损失函数具体形式的情况下, 仅仅依靠输入数据的值就可以进行叶子分裂优化计算, 本质上也就把损失函数的选取和模型算法优化/参数选择分开了. 这种去耦合增加了xgboost 的适用性, 使得它按需选取损失函数, 可以用于分类, 也可以用于回归。

3. LSTM 结构推导,为什么比 RNN 好

推导 forget gate, input gate, cell state, hidden information 等的变化;因为 LSTM 有进有出且当前的cell informaton 是通过 input gate 控制之后叠加的, RNN 是叠乘,因此 LSTM 可以防止梯度消失或者爆炸。

4. 为什么朴素贝叶斯如此“朴素”

因为它假定所有的特征在数据集中的作用是同样重要和独立的。正如我们所知,这个假设在现实世界中是很不真实的,因此,说朴素贝叶斯真的很“朴素”。

5. 简单说下有监督学习和无监督学习的区别

有 监 督 学 习 : 对 具 有 标 记 的 训 练 样 本 进 行 学 习 , 以 尽 可 能 对 训 练 样 本 集 外 的 数 据 进 行 分 类 预 测 。(LR,SVM,BP,RF,GBDT)

无监督学习:对未标记的样本进行训练学习,比发现这些样本中的结构知识。(KMeans,DL)

因为篇幅限制,剩下的面试题内容请在后台回复关键词“BAT面试题”领取。

作者:无邪,个人博客:脑洞大开,专注于机器学习研究。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-03-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 脑洞科技栈 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档