新智元编译
来源:Analytics India
编译:小潘
【新智元导读】概率计算能促进人工智能和机器学习吗?英特尔等许多公司押注于概率计算,致力于使未来的系统能够理解和计算自然数据中固有的不确定性,制造出能够理解、预测和决策的计算机。概率计算被认为是最适合在不确定的情况下做出判断的技术。
根据英特尔首席技术官Mike Mayberry的说法,最初的人工智能浪潮是基于逻辑的,这是基于写下规则——即所谓的“经典推理”。在概率计算中,处理单元所消耗的能量降低,从而增加了某些操作出错的可能性。
定义概率计算
根据USFCA的说法,概率计算机将模拟问题(前向)带入一个推理程序(反向)。总部位于加州伯克利的Navia系统公司开发了概率计算机,它将其定义为最适合在不确定的情况下做出判断的技术,就像传统的计算技术是大规模的记录保存一样。这家成立于2007年的创业公司强调,与目前用于逻辑推理和精确计算的计算机不同,在概率计算领域,机器和程序是用来处理不确定性和从经验中进行学习的。
英特尔在概率计算下压上重注
英特尔正把赌注押在概率计算上,这是人工智能的一个主要组成部分,它将使未来的系统能够理解和计算自然数据中固有的不确定性,并有助于研究人员能够制造出能够理解、预测和决策的计算机。Mayberry在一篇文章中指出,如今人工智能的一个关键障碍是,给电脑提供的自然数据大多是非结构化和“嘈杂”的。他强调,概率计算可以使计算机在处理大规模的概率时更有效率,这是将当前系统和应用程序从先进的计算辅助工具转变为理解和决策的智能合作伙伴的关键。
Intel CTO Mike Mayberry
作为研究的一部分,这家领先的芯片制造商建立了英特尔的概率计算战略研究联盟,以促进与学术界和创业社区的研究和合作,并将实验室的创新带到实际应用中。该公司想要解决的核心领域是基准应用、对抗攻击缓解、概率框架、软件和硬件优化。
其他公司正在重新思考计算机架构
根据洛斯阿拉莫斯国家实验室(Los Alamos NationalLaboratory,LANL)的数据,概率计算为新的架构铺平了道路,这些新架构可以帮助优化传统的基本算法。LANL指出概率计算是一个具有挑战性的挑战,因为大量的特征尺寸的减少会导致非确定性,这也是一个巨大的机会,因为它提供了一种探索丰富空间的算法,也帮助研究人员可以概率性的降低功耗硬件方法。
在深度学习中应用概率计算
对于研究人员来说,最大的优势之一就是概率计算可以用比当前范式所提供的更低的能量来进行计算。今天,通用机器已经获得了很高的成熟度,并且大量的用例和应用程序,比如音频和语音处理,都需要很高的计算能力。其结果是,围绕创新的新硬件系统的研究在学术和技术领域获得了越来越多的关注。计算的概率性质允许数量级的加速,并可以大大减少电力消耗。根据乔治亚理工学院的研究员Krishna V Palem的说法,电力是高计算速度的主要驱动因素,现在的主要问题是如何在嵌入式计算设备中使电池续航时间更长。Palem强调,计算可以被建模为偏离,而不是采用直线的方法,随后我们可以控制计算的曲折行为达到期望的水平,同时将能源的成本节省到忽略不计的程度。
前景
专注于人工智能的硬件已经催生了一个创业生态系统,这些初创公司正在努力使人工智能操作更加顺畅。一个例子就是加利福尼亚的Samba Nova系统,它通过创建一个新平台来为新一代的计算提供动力。据新闻媒体报道,这家创业公司认为,尽管英伟达的GPU已经成为该行业深度学习应用的实际标准,但仍有颠覆的空间。新闻报道称,该公司在A轮融资中获得了5600万美元的融资,该公司希望打造一款能够在任何以人工智能设备上运行的新一代硬件,这是一款为自动驾驶技术提供动力的芯片。
目前,人工智能硬件市场已经见证了像苹果和谷歌这样的大公司,他们推出了专门的硬件来加速电脑视觉、图像识别等任务,但人工智能和数据分析不再局限于大型科技公司。其他在类似领域运营的创业公司是Graphcore和中国的地平线机器人公司,它们也在对硬件进行投资,并基于GPU进行了激烈的竞争,因为GPUs是所有与人工智能相关技术的密集型计算应用的支柱。从Facebook到百度,几乎每一家大公司都对GPU进行了投资,以快速完成对深度学习应用的研究,并训练复杂的模型。在效率方面,GPU的效率是CPU的10倍,在功耗方面,NVIDIA声称GPU也在推动计算行业的能源效率。