首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

英特尔NNP芯片家族迎来新成员,面向推理及应用的新品已正式商用

在今年7月,InfoQ曾对英特尔公司副总裁兼人工智能产品事业部总经理Naveen Rao进行过一次专访,在采访中,Naveen透露面向训练及推理的NNP系列产品会在年底发布。经过四个月的等待,我们迎来了这两款新品。 2019年11月12日,2019英特尔人工智能峰会在美国旧金山召开。会上英特尔展示了一系列新产品进展,包括Nervana神经网络处理器NNP系列新品:面向训练的NNP-T1000和面向推理的NNP-I1000,以及下一代Movidius Myriad 视觉处理单元(VPU),用于边缘媒体、计算机视觉和推理应用。

NNP家族迎来新成员

Naveen Rao表示,新推出的英特尔 Nervana神经网络处理器现已投入生产并完成客户交付,是系统级人工智能解决方案的一部分。

英特尔 Nervana神经网络推理处理器(Intel Nervana NNP-I),代号Spring Hill,基于10nm Ice Lake处理器架构,支持所有的主流深度学习框架,在ResNet50上的效率可达4.8 TOPs/W,功率范围为10W到50W之间 。具备高能效和低成本,且其外形规格灵活,非常适合在实际规模下运行高强度的多模式推理。

而英特尔 Nervana神经网络训练处理器(Intel Nervana NNP-T)采用的是台积电16nm制程工艺,代号Spring Crest,拥有270亿个晶体管,硅片总面积达680平方毫米,具有高可编程性,支持所有主流深度学习框架。据介绍,NNP-T在计算、通信和内存之间取得了平衡,不管是对于小规模群集,还是最大规模的 pod 超级计算机,都可进行近乎线性且极具能效的扩展。

目前这两款产品面向百度、 Facebook 等前沿人工智能客户,并针对他们的人工智能处理需求进行了定制开发。

新一代Movidius VPU

新一代的Movidius Myriad视觉处理单元代号为KEEM BAY,是一个高性能、低能耗VPU,其架构是专门为边缘定制的,主要是用作视觉和媒介媒体处理。

和上一代相比,新产品的性能提升了10倍,同时可以提供更高密度的、可扩展的AI的加速。英特尔方面表示,与竞争对手相比,KEEM BAY的性能比Nvidia TX2要高4倍,比ASCEND 310快1.25倍;从效率上来看,KEEM BAY要比Xavier高出4倍。

据介绍,新的英特尔 Movidius VPU 计划于 2020 年上半年上市。

其他工具发布

英特尔还发布了全新的英特尔DevCloud for the Edge,与英特尔Distribution of OpenVINO工具包共同解决开发人员的主要痛点,即在购买硬件前,能够在各类英特尔处理器上尝试、部署原型和测试AI 解决方案。OPENVINO可以让客户来编写自己的神经网络模型,实现性能最大化,并且能够为对架构的知识不甚了解的人,提供简化的方法来实现更高的性能。

除了OPENVINO以外,DevCloud也是今天发布的一大亮点。这是一款面向边缘进行优化的产品,实际上已经在六个月前推出,通过DevCloud for the Edge,用户可以将模型在DL Boost深度学习加速方案里进行优化,同时获得相应的硬件的配置建议,以找到最适合的、最高效的硬件配置。

结语

身为老牌硬件大厂,英特尔的转型之路一直备受关注,随着用户对数据处理、算力的要求进一步提升,英特尔也顺应时代推出了如NNP系列芯片这样的产品。Naveen Rao在演讲中说:

“在计算、内存、互联、封装等领域,每一个要素都对用户的体验和性能产生影响…随着人工智能的进一步发展,计算硬件和内存都将到达临界点。如果要在该领域继续取得巨大进展,专用型硬件必不可少。”

不难看出,专用型芯片市场仍有巨大的潜力有待挖掘,Naveen 更是大胆预测:2019年英特尔在AI领域的收入能够达到35亿美元。但由此引发的竞争也将会是更加激烈的,英伟达、AMD等一众芯片厂商更是不会放过这样的发展机会,未来专用芯片市场又将呈现出怎样的局势,实在令人期待。

  • 发表于:
  • 本文为 InfoQ 中文站特供稿件
  • 首发地址https://www.infoq.cn/article/BLgsCF8N34GZPy6aFhli
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券