首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >业界 | 联合Facebook,英特尔发布深度学习系列处理器NNP

业界 | 联合Facebook,英特尔发布深度学习系列处理器NNP

作者头像
机器之心
发布2018-05-08 12:16:39
5600
发布2018-05-08 12:16:39
举报
文章被收录于专栏:机器之心机器之心机器之心

选自mspoweruser

机器之心编译

参与:刘晓坤

今天,英特尔联合Facebook设计并发布了新的专为深度学习设计的系列处理器Intel Nervana NNP,拥有新的存储器架构,更高的可扩展性、数值并行化,并且英特尔有将深度学习性能提升100倍的野心。

英伟达最近几年在新型神经网络领域中独领风骚,甚至还为自动驾驶汽车发布了专用的芯片组,但是英特尔并不准备让这个生产 GPU 的公司独占鳌头。

英特尔 CEO Brian Krzanich 在今天的华尔街日报的 D.Live event 栏目中宣布,英特尔即将配置全世界首创的为人工智能而重新设计的系列处理器: Intel® Nervana™ Neural Network Processor family(神经网络处理器系列)。

英特尔称 Nervana NNP 是专为深度学习定做的架构,让用户从已有硬件(并非专门为 AI 而设计)的性能限制中解放出来。

芯片特征

新的存储器架构设计以最大化硅基计算机的效用

英特尔 Nervana NNP 并没有标准的高速缓存层次结构,而且单片存储器由软件直接控制以更好控制存储过程,从而使芯片可以在每一次内存释放(die)中获得高度的计算资源效用,这意味着能将深度学习模型的训练时间大大缩短。

AI 模型的可扩展性达到新的层次

英特尔 Nervana NNP 拥有高速的开和关(on and off)的芯片内部数据互联,从而允许大量数据的双向转换。这种设计的目的是实现真正的模型并行化,即神经网络的参数分布在多个芯片中。这使得多个芯片像一个大型虚拟芯片工作,因而能容纳大型的模型,使客户能从数据中获得更多的洞见。

高度的数值并行化:Flexpoint

在单个芯片上做神经网络计算极大地受到能耗和存储带宽的限制。为了使神经网络的工作负载能获得更大的吞吐量,除了上述的存储技术革新,英特尔还发明了一种新的数值类型,Flexpoint。Flexpoint 允许使用定点乘法和加法实现标量计算,并可以通过共享指数实现大动态范围。由于每一次循环变得更小,使得在每一次投掷中能实现更大规模的并行化,同时大大降低每一次计算的能耗。

最重要的性能

英特尔称这只是这个硅基芯片系列的第一个产品,并计划利用这个系列在 2020 年将深度学习训练的性能提升 100 倍。

英特尔联合 Facebook 一起设计芯片,他们的目标是培育一类新的 AI 产品,其可能性只受限于开发者的想象力。

英特尔称到了 2020 年,认知和人工智能技术将获得 460 亿美元的产业收益,而英特尔的第一代英特尔 Nervana NNP 将在今年年底加入这场竞争。

原文地址:https://mspoweruser.com/intel-announced-new-generation-of-thinking-processors/

本文为机器之心编译,转载请联系本公众号获得授权。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-10-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
对象存储
对象存储(Cloud Object Storage,COS)是由腾讯云推出的无目录层次结构、无数据格式限制,可容纳海量数据且支持 HTTP/HTTPS 协议访问的分布式存储服务。腾讯云 COS 的存储桶空间无容量上限,无需分区管理,适用于 CDN 数据分发、数据万象处理或大数据计算与分析的数据湖等多种场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档