首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

IBM谢东:当摩尔定律走到极限,未来计算将如何发展?

大数据文摘出品

从机电式计算机到电子计算机,再到量子计算机,人类对于算力有着无限的追求与渴望。50多年前摩尔定律诞生,揭示着信息技术进步的速度;如今,对于算力方面摩尔定律似乎陷入了瓶颈。那么未来的算力将如何发展,摩尔定律是否还能重现?

在12月13日举办的EmTech China全球新兴科技峰会上,IBM副总裁、IBM大中华区首席技术官谢东对未来计算发表了自己的见解。接下来就由文摘菌带你走近“未来计算”,重现谢东的精彩发言~

人类发明了计算机用来处理信息,为了能够更加快速、准确、安全、智能地进行处理,在过去的几十年中计算在创新中快速地发展。

未来会往哪里去?既然是为了处理信息,我们发现在不同的理论框架下,当我们用不同视角来研究信息的时候,会给人不同的启发。

首先,数学上怎么看信息?香农在1948年的时候,发布了一个非常重要的论文《通信的数学原理》。他有一个重要举措,他说“一切信息不管是语言、图像,还是什么样的信息,都可以用0和1表示”,这样就把所有信息代入了数字世界,并且所有的逻辑也可以用0和1表示。

至此,当信息可以完全从它的物理世界里独立出来,从数学角度研究信息的时候,像这张图,数字的卡片跟下面的DNA双螺旋结构,在信息角度,我们看它是一样的,他们都是信息的承载者。

在这样的理论支持下,我们开发出了经典的数字计算机,这样我们可以在不同的角度对物理世界进行建模,进行数字处理,以及各种数字的存储,数字安全性等,在不同领域齐头并进,使我们现在在数字计算机领域有飞速发展。

摩尔定律走到极限后将如何发展?

摩尔定律,讲的是在单位面积上能够集成的半导体芯片,每18个月翻一番,意味着每18个月你在同样的价格下可以获得翻倍性能和功能。

在60年代,摩尔只有4个采样点,他就预测了这样一个趋势,随后的60多年,他恰好就按照这个趋势发展了,不是因为容易,是因为有大量的投入,现在为了推进这样一个发展,每年全球投入的研究经费大概是3000亿美元。

摩尔定律的发展到现在已经相当成熟了,这是两个案例。

案例一,IBM刚刚发布的主机,它是有一个非常强劲的芯片,在上面高度地集成,它每天可以处理1万比的交易,同时可以达到5个9的安全可靠性,所以它非常成熟。

案例二,是并行系统,现在最强劲的超级计算及已经可以达到每秒20万万亿次,这是摩尔定律顶峰的作品。

摩尔定律往前走,现在也在不断地接近极限,我们走到了7纳米,还会走到5纳米、3纳米,但它走到极限了。

因为我们现在的经典计算机是建立在经典物理基础之上,而经典物理到3纳米的时候已经到了原子尺度,到原子尺度的时候,很多时候你要再做小,发现芯片有很多问题,经典物理不能够支持了。

现在我们虽然可以操作原子,但是我们要把这些信息存下来,在原子的尺度上,直接看存储这几个字符需要多少原子,比如这5个字符,每个比特我们需要12个原子,相当于存储这5个字母需要480个原子,再小的做不了了,这就是我们现在遇到的极限。

在比特世界,经典计算机我们走到了这里,算力再往前走是什么样,那什么样的东西需要这么大的算力,还有没有其它选择?

生物学上大家很关心的一个问题是说人脑,大家知道人脑是非常擅长处理信息,而计算机从它诞生的第一天也试图来模仿人的大脑,希望计算机能像人脑一样来处理信息。

这时候我们要提到Santiago Ramony Cajal,他是一个西班牙的医生,是一个现代神经科学家,他获得过1906年的诺贝尔奖,他还是一个很出色的插画师。右边神经元这张图,实际现在还有很多人用,这张图是出自他的手笔。

人脑是怎么处理信息的?他发现人脑是一个一个相对独立的神经元构成的,神经元有很多突起,这样一个神经的脉冲是树突经过神经元细胞到轴突,是这样一个单项的传播,而神经元构成了一个复杂的网络,这样一个结构就支持了人进行学习,支持人脑进行记忆等等。

受这样的启发,人工智能网络就诞生了,当时的网络没有这么复杂,这个网络实际上现在典型深度学习的网络,它就是模拟了人脑的一些处理方式、方法来处理这个信息。

每一个人其实就相当于一个神经元,中间的连线很像是神经元的轴突和树突,他把神经元都连接起来,上面每一个连接线的权重以及每一个节点上的触发机制。这样就有了一种新的编程机制,我们不需要用规则的方式来进行编程,而是可以给这个网络一个例子,加一个标注,让他训练这个网络,训练出来以后,这个网络可以很好的帮助我们来进行物体的识别等等,这是现在很典型的,通过深度学习,通过人工神经元网络来进行人工智能应用的一个典型例子。

这种思想已经有很长的时间了,在50年代的时候就诞生了。直到了2012年的时候这个想法才大规模的应用,大规模的应用得益于我们有大量的数据出现了,而且有很多高质量的标注数据出现。另外一个是算力有急剧提升,这就导致人工神经元深度学习的方法得以有实际的应用。

如今人工智能发展到什么程度了?

我们看到从2012年开始,识别率有一个显著的开始,到了2015年,机器学的一些特定领域已经超过了人类,使得人工智能深度学习的方法真正进入了实用。

那现在发展到什么程度了?现在人工智能技术,在一些特定的领域以及应用实际上已经超过人的能力了,但是它还需要很多大量的数据来进行训练。

我们暂且把它叫做面向特定任务的一个窄的人工智能,这个窄相当于每个方法的应用相对窄,当然我们希望未来是一种通用的人工智能,而这种通用的人工智能我们希望它是能具有人一样的智能,它具备学习的能力,能够不断的学习,自主的学习,能够跨领域在更广的范围内提升整个机器的智能。

通用人工智能可能还需要一段时间才能实现,我们经常说可能是2050年以后吧。

那么现在,我们希望把窄的人工智能变成一个宽的人工智能,所谓宽是什么?在学习的基础上加入一些推理的能力,这样我们可以支持多任务、多领域、多模态的学习。为了更好的大规模应用,我们还需要一些方法使得它能够在较小的数据集上训练这些模型。

同时还有一个重要的题目就是可信的人工智能,因为我们要把人工智能进行大规模应用的话,一定要保证它是可信的。

人工智能对算力的要求

人工智能的方法有效,但它对算力有什么要求?这张图是过去几年里面一些典型的人工智能、深度学习的算法,它对算力需求的提升。可以看到大约每3.5个月,新出现的深度学习模型对算力的需求就翻一倍,大家发现问题了吗?我们刚才讲了摩尔定律,它的能力是每18个月才能翻一倍。

也就是说现在人工智能这些应用对算力的需求,如果没有更好硬件的创新,如果没有更好软件的创新,我们不能够满足了,那我们怎么办。我们就是用异构系统,专用加速的方式来提供,并行化。

我们做过这样一个实验,我们训练一个大型的模型,如果我们在单节点上进行训练,我们达到所需求的训练精度差不多要两天的时间。当我们把算法并行化,在256个节点上进行这样的训练,我们可以把训练时间缩短到14分钟,大家可以算一下,几乎就是线性的,也就是说如果我们有很好的算法,可以通过并行的方法提供到相应算力的需求。

这样就够了吗?可能还不够。因为我们想象未来大规模的应用未必在所有的场合都能用超级计算机来实现,实际上在应用中我们需要考虑到的是通过芯片的方法来做,芯片大规模运用的时候,我们希望芯片本身能够便宜。

我们还希望每个芯片在使用中功耗能够小,这样才能进入实际的应用。怎么做呢?实际上IBM在这里面有不同的技术路线,通过数字芯片的话,IBM通过降低相应的精度,但是能够保证最后识别的精度,这样使得AI芯片面积小了,性能提升了,价格也降低了。

还有一种就更有意思了,模拟芯片的做法,模拟芯片的原理还蛮有意思的,我们知道人工智能这种深度学习的应用中其实要大量的进行矩阵向量的乘法。我们在做大量乘法的时候是不是有一些其它的方法来做,然后我们发现可以用一些物理的特性,通过模拟芯片的方法来实现这样的功能,使得我们芯片的性能极大幅度的提高,特别是芯片的功耗极大幅度的降低。

在这样的路线图下,我们差不多到2025年之前,还能把性能功耗比每年增加2.5倍,赶上现有人工智能应用的需求。

量子计算机的诞生:量子与信息的碰撞

再往前看,出场的就是量子计算机了。刚才我们是从数学的角度来看信息,又从生物的角度来观察信息,物理学家是怎么看信息的呢?在这里我要提到两个人,一个是Landauer,一个是Bennett,他们两个都是IBM的研究人员。

Landauer在60年代的时候就开始从物理的角度来观察,信息到底对物理学来说意味着什么。物理学家提出的问题是不同的,他是这么考虑的,他说“处理信息是不是需要能量,我要处理一个比特的信息,我需要最小的能量是什么”。在这个过程中既然能量可以处理信息的改变,那这个过程是不是可逆?并且,他给出了在经典计算机下,擦除一个比特信息所需要的最小能量公式。

Bennett,是Landauer召进IBM的,他开始真正思考了从量子角度怎么表达信息、研究信息。这是1970年Bennett笔记上的一页,他上面写的是量子信息理论,他在思考通过量子怎么来研究信息,所以这方面的工作他在1970年就开始了,随后量子计算机诞生了。

量子计算机原理,当进入量子世界的时候,信息可能不是0和1,一个比特不是用0和1来表示。像量子比特,就是0和1状态之外的叠加态,而量子计算就利用了三个基本原理(态叠加原理、量子纠缠、相干原理),这三个原理在一起,产生了量子计算机。

大家非常关心量子计算机能解决什么问题?量子计算机并不是为了简单地全盘替换掉经典计算机,它在不同领域内还要互相结合,对经典计算机来讲还有大量领域是适合的。

比如用经典计算机进行通讯,指通讯的信道过程,而不是量子的加密通讯,像办公自动化,科学计算等,这些传统计算机还是相当好的。

但它也有一些问题,就是非常不容易解决,比如自然过程中的分子仿真等,因为它本身是一个超随机的过程,这样恰好可以用量子方法进行研究,这可能是非常自然的方式。还有一些数学问题,比如大的质因数分解,这在现在经典计算机的算法体系下是非常难的计算问题,而在量子世界,理论上证明,它可以把计算速度减少到非常小的程度。

未来计算=比特+神经元+量子比特

2018年,IBM已经在理论上证明,在一些浅电路下,量子计算比传统计算机具有优势。现在这个时代又是一个非常激动人心的时代,1944年布莱切利的第一台可编程数字计算机,当时的计算机跟现在的计算机相比,算力差的很远,但是那时候已经让人非常激动人心了。

2016年IBM把量子计算开始放到了网上,让全球用户都可以通过网络,通过云的方式来访问量子计算机,能够把一些实验的算法在量子计算机上进行实验。

现在IBM全球有14套物理量子计算机,放在了不同的网上,访问这些量子计算机的将近有18万人。而且IBM在全球有80个不同合作伙伴,在不同领域研究量子计算能够提供哪些新兴应用?它的应用前景是非常诱人的,比如在制药、新材料工程、以及金融行业等领域都有不同应用。

在未来,量子计算的发展需要有物理的量子计算机出来,需要有非常多的新行业应用,还需要有更多能够在量子计算机进行编程的工程技术人员,而这三点都是IBM在不断努力的。

未来计算,它仍然是比特+神经元+量子比特,也是传统计算机跟量子计算机的融合。在融合基础上,算力还会不断提升,我们的未来仍然有无限的可能性。

点「在看」的人都变好看了哦!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20191217A0B1XI00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券