前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >模型调参:压力也没那么大,试了一圈还是得靠贝叶斯

模型调参:压力也没那么大,试了一圈还是得靠贝叶斯

作者头像
大数据文摘
发布2018-05-24 18:16:24
9890
发布2018-05-24 18:16:24
举报
文章被收录于专栏:大数据文摘大数据文摘

YouTube网红小哥Siraj Raval的趣味小视频系列The Math of Intelligence又来啦!这期我们来讲一讲机器学习建模中最痛苦的部分——“超参数调优”。

超参数调优方法我们试了个遍,人工搜索、网格搜索、随机搜索……但最后发现:有了贝叶斯,压力其实也没那么大!

图片来自网络

“超参数”是指模型里的那些预先设定的、无法直接从模型训练中得到的参数。随机森林树木的个数、神经网络隐藏层的个数、逻辑回归的学习率,这些都是超参数。调好超参数,模型会有意外好的表现。

视频内含超多笑点,文摘菌先来预告几个,下拉观看完整视频哟!

笑点预告1:今天我们用SVM来分类一句Twitter的语气是正向的还是负向的,这叫做情感分析▼

星球大战Darth Vader:I am your father,内心戏多不外露,分析不出来能怪我?

笑点预告2:搜索参数啊搜索参数……你们找着找着就会遇到这个诅咒▼

维度超多!完全搜不过来!超开心!

笑点预告3:一定有更好的方法对不对!我们要充分发挥我们的聪明才智▼

而不是成为压力也没那么大的28岁互联网公司程序员对不对!

笑点预告4:终于,我们要和贝叶斯老爷见面了。我们先让频率学派和贝叶斯学派打一架▼

贝叶斯学派认为样本数据是确定的而参数是随机的,频率学派则相反,认为参数是确定的而样本是随机的。在超参数调优中,贝叶斯方法更占优势。

为什么试了一圈还是得靠贝叶斯?赶紧戳开视频了解吧!

▼小哥告诉你,为什么贝爷才是真爱?

视频内容

↑视频时长9分钟↑

原视频地址 https://www.youtube.com/watch?v=ttE0F7fghfk&list=PL2-dafEMk2A7mu0bSksCGMJEmeddU_H4D&index=13

总结:有好几种超参数调优方式,我们更倾向于用贝叶斯优化▼

贝叶斯方法采用一个先验信念(prior belief),在训练模型时会不断改进先验信念,让先验信念影响预测,所以我们爱它▼

-The End-

重磅课程译制组招募中

大数据文摘经授权汉化的斯坦福CS231n和牛津DeepNLP已有6万+人学习!近期我们将开启新一轮国外精品AI课程译制,期待你的加入!戳文末阅读原文,即可加入我们!

我们希望你

  • 具备一定机器学习理论知识和较高的英语水平,对数据科学/人工智能国外精品课程感兴趣
  • 有时间、有责任心、乐于分享

你可以获得

  • 第一时间接触独家授权视频等学习资料。
  • 视频发布时会署上各位志愿者的名字和贡献。
  • 有范儿有料科技大会的免费、优惠门票。
  • 优质公司和岗位的内推机会。
  • 和志同道合的小伙伴一起成长的机会。

本期工作人员

听 译 | 唱歌的蔬菜

翻 译 | Clare

校 对 | 糖竹子、龙牧雪

后 期 | 郭 丽

编 辑 | 韩 蕊

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-11-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据文摘 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档