哪种芯片架构将成为人工智能时代的开路先锋

【IT168 评论】如果用刀来比喻芯片,通用处理器好比一把瑞士军刀,人工智能时代好比要拿刀来切肉,瑞士军刀可以拿来用,但它并非是为切肉设计的,所以效果并非最好。因此,需要专门打造一把切肉的刀,这把刀既要方便切肉,又要方便剁骨头,还需要具有一定的通用性。

从技术上而言,深度学习的人工神经网络算法与传统计算模式不同,它能够从输入的大量数据中自发的总结出规律,从而举一反三,泛化至从未见过的案例中。因此,它不需要人为的提取所需解决问题的特征或者总结规律来进行编程。人工神经网络算法实际上是通过大量样本数据训练建立了输入数据和输出数据之间的映射关系,其最直接的应用是在分类识别方面。例如训练样本的输入是语音数据,训练后的神经网络实现的功能就是语音识别,如果训练样本输入是人脸图像数据,训练后实现的功能就是人脸识别。

例如,“谷歌大脑”用了上万个通用处理器“跑”了数天来学习如何识别猫脸;“阿尔法狗”和李世石下棋时使用了上千个中央处理器(CPU)和数百个图形处理器(GPU),平均每局电费近3000美元。对于绝大多数智能需求来说,基于通用处理器的传统计算机成本高、功耗高、体积大、速度慢,难以接受。

用于图像处理的GPU芯片因海量数据并行运算能力,被最先引入深度学习。2011年,当时在谷歌就职的吴恩达将英伟达的GPU应用于“谷歌大脑”中,结果表明12个GPU可达到相当于2000个CPU的深度学习性能。之后多家研究机构都基于GPU来加速其深度学习神经网络。

随之而来的是,英伟达通过GPU在深度学习中体现的出色性能迅速切入人工智能领域,又通过打造NVIDIA CUDA 平台大大提升其编程效率、开放性和丰富性,建立了包含CNN、DNN、深度感知网络、RNN、LSTM 以及强化学习网络等算法的平台。

但是,随着人工智能的发展,GPU开始在三个方面显露出局限性:

第一, 应用过程中无法充分发挥并行计算优势。深度学习包含训练和应用两个计算环节,GPU 在深度学习算法训练上非常高效,但在应用时一次性只能对于一张输入图像进行处理, 并行度的优势不能完全发挥。

第二, 硬件结构固定不具备可编程性。深度学习算法还未完全稳定,若深度学习算法发生大的变化,GPU 无法像FPGA 一样可以灵活的配置硬件结构。

第三, 运行深度学习算法能效远低于FPGA。学术界和产业界研究已经证明,运行深度学习算法中实现同样的性能,GPU 所需功耗远大于FPGA,例如国内初创企业深鉴科技基于FPGA 平台的人工智能芯片在同样开发周期内相对GPU 能效有一个数量级的提升。

难道FPGA就是最佳选择了?未必。

FPGA在人工智能的应用上同样存在一定的局限性:第一,基本单元的计算能力有限。为了实现可重构特性,FPGA 内部有大量极细粒度的基本单元,但是每个单元的计算能力(主要依靠LUT 查找表)都远远低于CPU 和GPU 中的ALU模块。 第二,速度和功耗相对专用定制芯片(ASIC)仍然存在不小差距。 第三,FPGA 价格较为昂贵,在规模放量的情况下单块FPGA 的成本要远高于专用定制芯片。

当然还有TPU、ARM等芯片架构不停的向人工智能领域靠拢,同样具备一定的优势和局限性。我们正处在从信息时代迈向智能时代的重要拐点,人工智能将推动新一轮计算革命,而芯片行业作为产业最上游,是人工智能时代的开路先锋,最终哪种芯片将成为AI的“伴侣”,相信很快就会浮出水面。

本文来自企鹅号 - IT168媒体

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏人称T客

第四次产业革命:始于人工智能 | 周末长文

T客汇官网:tikehui.com 撰文 | 徐婧欣 ? 「最近十年,我们一直在建立一个移动优先(mobile-first)的世界,而接下来的十年里,我们的将转...

3676
来自专栏钱塘大数据

苹果首份人工智能报告:一篇关于机器学习的论文

在人工智能强势来袭的今天,无论是Google、Facebook亦或是一些创新企业,都离不开高频的讨论这个话题,然而作为世界科技巨头的领先者之一的苹果一直以来似乎...

45211
来自专栏机器之心

入门 | 做数据科学如烤蛋糕?不服来看

面部识别、自动驾驶、机器人统治世界?!还有那个令人毛骨悚然的机器人女孩,索菲亚。emmm…还有黑镜?

1372
来自专栏CDA数据分析师

入门 | 做数据科学如烤蛋糕?不服来看

面部识别、自动驾驶、机器人统治世界?!还有那个令人毛骨悚然的机器人女孩,索菲亚。emmm…还有黑镜?

1022
来自专栏PPV课数据科学社区

AI时代就业指南:如何成为一名优秀的算法工程师?

1、算法工程师是做什么的? 广义上是指搞软件算法的,也就是开发和应用软件算法实现工业控制和程序处理。除了机器学习之外 还包括控制算法、图形算法等,狭义上现在谈算...

5698
来自专栏人工智能头条

专家展望未来5年深度学习发展趋势

1924
来自专栏灯塔大数据

观点|12位专家展望未来5年深度学习发展趋势

? 2015年已然过去,2016刚刚开始,回头将目光集中于去年的成就上,以及对将来科学趋势的预测。去年最令人瞩目的一个领域就是深度学习,它是机器学习中越来越流...

36114
来自专栏程序你好

什么是机器学习和人工智能以及它们之间的差异

机器学习和人工智能的区别:“好的,谷歌!有什么事吗?你能演奏我最喜欢的曲目或者预订一辆从宫殿路到MG路的出租车吗?”

941
来自专栏AI科技评论

专访百度硅谷AI实验室Greg Diamos:基于GPU的深度学习的可扩展性

编者按:百度首席科学官吴恩达在ISC大会上谈到了超级计算能力如何在人工智能领域里应用,他的同事,百度硅谷人工智能实验室高级研究员Greg Diamos在参加纽约...

3516
来自专栏新智元

【报告】神经网络:技术发展与未来挑战(PDF下载)

【新智元导读】本文为爱思唯尔收费报告。西班牙格拉纳达大学研究人员系统梳理神经网络历史,从模型、模拟器到实现几方面阐释神经网络发展,展示了随时间推移,神经网络如何...

3638

扫码关注云+社区

领取腾讯云代金券