前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >2018 AI趋势:AI芯片更丰富,用机器学习的企业翻倍 | 德勤报告

2018 AI趋势:AI芯片更丰富,用机器学习的企业翻倍 | 德勤报告

作者头像
量子位
发布2018-03-23 11:10:23
7610
发布2018-03-23 11:10:23
举报
文章被收录于专栏:量子位量子位
安妮 编译自 德勤官网 量子位 出品 | 公众号 QbitAI

这是一个急速变化但又有很强发展衔接性的时代。

德勤在最新报告Technology, Media and Telecommunications Predictions(科技、传媒和通讯的预测)开头这样说。

这份报告中,德勤预测了增强现实(AR)、智能手机、AI芯片、机器学习、互联网、数字传媒等领域在2018年的大趋势。总体来讲,科技、传媒和通讯领域内将呈现指数级进步,生活中的方方面面也将发生不易察觉的变化。

这份报告长达80页,量子位将其中与人工智能相关的两部分编译整理如下。在2017年的尾巴,我们提前去2018年预览一下。

AI芯片

强大的运算力对训练和推理神经网络来说必不可少。

2009年,第一块GPU问世,这种专门为密集型计算、高度并行计算设计的芯片,比CPU更能满足机器学习任务的要求。自此,越来越多的类型开始丰富“AI芯片”这个新名词。

德勤预测,2018年,GPU和CPU仍是机器学习领域的主流芯片。

GPU的市场需求量大概在50万块左右,在机器学习任务中对FPGA的需求超过20万块,而ASIC芯片的需求量在10万块左右。

GPU、FPGA和ASIC芯片需求与2016年对比图

在年底,超过25%的数据中心中用来加速机器学习的芯片将为FPGA和ASIC芯片。

FPGA和ASIC芯片的市场份额超过25%

那么,每种类型的芯片到底向什么方向发展,德勤给出了详细的预测:

机器学习优化的GPU:在2018年,GPU制造者将推出专门优化机器学习任务的特别版GPU。其实现在已经能看到这样的案例,英伟达称自己的Volta架构将使深度学习训练加速12倍,在深度学习推理任务上比Pascal架构还要快6倍。

机器学习优化的CPU:在GPU市场蒸蒸日上的同时,我们也可以看到CPU公司推出机器学习专用的CPU芯片。比如英特尔Knights Mill芯片,比非机器学习优化芯片的性能提升了4倍。

机器学习优化的FPGA:在2016年,全球FPGA芯片的销售额已经超过40亿美元。在2017年年初报告《 Can FPGAs Beat GPUs in Accelerating Next-Generation Deep Neural Networks?》中,研究人员表示在某些情况下,FPGA的速度和运算力可能比GPU还要强。

目前,微软、亚马逊AWS和百度也称将FPGA用于机器学习的相关任务中。总体来说,2018年机器学习任务对FPGA的需求超过了20万。

机器学习优化的ASIC芯片:ASIC是只执行单一任务的芯片,目前ASIC芯片的制造厂商很多。在2017年,整个产业的总收益大约在150亿美元左右。

综合各芯片厂商放出的消息,英特尔的收购的Nervana,能在2018年生产出自己的芯片。此外,日本富士通也计划在2018年推出一款名为深度学习单元(DLU)的芯片。

TPU:TPU是谷歌为适应机器学习任务推出的ASIC芯片,适用于处理在开源的TensorFlow中的任务。在谷歌数据中心的推理任务中,TPU已经显示出良好的性能,和CPU相比,性能可以提升10到50倍。据谷歌预测的数据显示,2018年对TPU的需求大约在10万块左右。

低能耗机器学习加速芯片:德勤预测,在2018年,手机、平板和其他移动设备对机器学习芯片的需求量在5亿左右。移动端芯片的最大特点就是低能耗,GPU芯片的功率大致在250瓦左右,相比之下TPU芯片需要的功率仅为75瓦。对传感器网络来说,所需功率需要低于10毫瓦。

德勤预测,可能再过两三年,低功率的机器学习芯片才能有突破性进展。

光流芯片:除了上面几种,还有一种特殊的芯片类型,IBM的True North芯片就是一种光流芯片,它能加速机器学习任务,并且非常高效。不过德勤表示,现在还很难预测这种光流芯片在2018年的体量,但整体来说可能低于10万块,甚至低于1万块。

机器学习

德勤预测,在2018年,大中型企业将更加看重机器学习在行业中的应用。和2017年相比,用机器学习部署和实现的项目将翻倍,并且2020年将再次翻倍。

翻倍再翻倍

在报告中,德勤重点提出了让机器学习更广泛应用企业中的5个重要推动力,分别为数据科学的自动化、训练数据需求的减少、训练速度的加快、解释结果和本地部署等。

1. 数据科学自动化:像数据开发和特征工程这种耗时的机器学习任务,可能会占用数据科学家80%的时间。好消息是,这种繁琐的工作正在逐步被自动化取代。从耗时的工作解放出来后,数据科学家执行机器学习试验的时间从几个月缩短到了几天。自动化在一定程度上缓解了数据科学家的短缺,为企业赋予和更多活力。

2. 减少训练数据的需求:训练一个机器学习模型可能需要数以百万计的数据元素,为训练数据获取标记数据也是一件耗时且成本高的事情。目前,已经涌现出致力于减少机器学习需要的训练数据的技术,包括数据合成、算法生成的模拟真实数据特征等。

3. 加速训练:正如上面所说,像GPU、FPGA等机器学习专有硬件的出现可以缩短机器学习模型的训练时间,加速研究进展。

4. 解释结果:虽然机器学习的进展日新月异,但机器学习模型通常存在关键缺陷,比如黑箱,意味着我们无法解释其中的原理。这些不清楚让模型无法适应更多的应用。如果黑箱消失、结果都可解释,是机器学习应用的一大进步。

5. 本地部署:机器学习将随着部署能力一同成长。德勤去年曾经预测,机器学习正在走进移动设备和智能传感器,带来智能家庭、智慧城市、无人驾驶、可穿戴技术和物联网技术。

像谷歌、微软、Facebook等科技巨头正在尝试将机器学习模型压缩到便携设备上,比如谷歌的TensorFlow Lite、Facebook的Caffe2Go和苹果的Core ML。

相关资料

最后,附报告下载地址——

德勤报告网盘地址: https://pan.baidu.com/s/1qXKx3sS

简笔画版报告摘要: https://pan.baidu.com/s/1mivJvBE

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-12-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • AI芯片
  • 机器学习
  • 相关资料
相关产品与服务
GPU 云服务器
GPU 云服务器(Cloud GPU Service,GPU)是提供 GPU 算力的弹性计算服务,具有超强的并行计算能力,作为 IaaS 层的尖兵利器,服务于深度学习训练、科学计算、图形图像处理、视频编解码等场景。腾讯云随时提供触手可得的算力,有效缓解您的计算压力,提升业务效率与竞争力。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档