首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

NVIDIA为AI 应用推出 HGX-2 云端服务器平台

NVIDIA 的年度技术大会 GTC 今天于 Computex 前夕在台北举办。虽然说 GTC 本来是「GPU Technology Conference」的意思,但由于近来 AI 的兴起及其对运算力的巨大需求,GTC 的主题几乎全部份集中在 AI 与机器学习上,横跨物联网、机器人、智能制造、智能医疗、深度学习等各个领域。

在会议前的 Keynote 上,CEO 黄仁勋展示了资料,显示训练 AI 模型所需的运算力,在过去五年内成长了 30 万倍。黄仁勋认为,这样的密集运算力不是传统 CPU 所能提供的,只有高度平行化的 GPU,甚至是专门为 AI 打造的核心才能应付未来的需求。举例来说,NVIDIA 去年 GTC 上发布的 Volta 架构 就是第一个专门强化 4x4 矩阵运算能力的 GPU,在 AI 相关的应用上有 100x 的表现。

然而,就算是 Volta 也未能满足 AI 领域应用对于运算力的强大需求,因此 NVIDIA 今天发布了名为「HGX-2」的高性能运算服务器平台,旨在更小的空间、更少的能耗下,提供大规模的 AI 运算的需求。通过 NVSwitch 网状互连架构, HGX-2 最多可以串连 16 颗 Tesla V100 GPU,达到 2 Peta-FLOPS 的惊人速度,并且将由合作的服务器伙伴,打造以 HGX-2 为基础的各式产品。

事实上,NVIDIA 稍早发布的「史上最大 GPU」DGX-2 就是以 HGX-2 为基础架构所打造,但 DGX-2 定价高达 39.9 万美元,而且无法有太多配合个别应用去做的定制化,现在 NVIDIA 将平台开放给合作伙伴之后,应该能为 AI 应用带来更多的弹性吧?

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180531A0JW2A00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券