前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【NIPS2017】Google大脑负责人 Jeff dean 演讲机器学习与硬件系统的相互促进

【NIPS2017】Google大脑负责人 Jeff dean 演讲机器学习与硬件系统的相互促进

作者头像
WZEARW
发布2018-04-11 17:15:53
1K0
发布2018-04-11 17:15:53
举报
文章被收录于专栏:专知

【导读】在今年的NIPS2017大会期间,Google大脑负责人Jeff Dean详细介绍了Google在AI芯片方面的最新研究进展。让我们来看一下Jeff Dean带来的讲座《Machine Learning for Systems and Systems for Machine Learning》。

大约在四年前,谷歌开始注意到深度神经网络在各种服务中的真正潜力,由此产生的计算力需求——硬件需求,也就十分清晰。具体说,CPU 和 GPU 把模型训练好,谷歌需要另外的芯片加速推理(inference),经过这一步,神经网络才能用于产品和服务。此后就有了谷歌TPU的出现,这款芯片在去年谷歌 I/O 大会上首次公开亮相,在这今年召开的体系结构顶会ISCA 2017 上面,描述 TPU 的论文被评为最佳论文。

与此同时随着硬件系统性能的提升,机器学习方法如何更好的利用这些硬件资源也成了一个很重要的问题。比如在针对一个大型模型,如何基于多计算设备来实现并行化。还有如何利用机器学习来提升数据库系统的使用效率。

▌PPT详细内容



这是Jeff Dean报告的详细内容

参考链接:

http://learningsys.org/nips17/assets/slides/dean-nips17.pdf

▌特别提示-

Jeff Dean演讲P

PT下载:

请关注专知公众号

  • 后台回复“MLS” 就可以获取PPT下载
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-12-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 专知 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档