首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI和机器学习运算 储存系统需“给力”

人工智能(AI)和机器学习(ML)技术正在改变各产业解决问题的方式,从医疗、交通运输到社群媒体,更是重大科技活动不可或缺的主题。不过产业的重点多放在训练和推论运算,较少关注存储器和储存装置的影响。最佳化的AI和机器学习工作流程需要在运算、存储器和储存装置间取得合理平衡,否则可能导致训练流程变慢。

据富比士(Forbes)报导,超微(AMD)和NVIDIA等公司的GPU产品提供深度神经训练网络所需的支持,而大数据(big data)则推动了AI和机器学习的爆炸式成长。不过专家发现,随着GPU速度愈来愈快,数据集愈大愈丰富,瓶颈也开始出现,主要问题之一在于GPU内部用来储存这些大规模平行深度神经网络的装置无法跟上处理速度速度。

过去由于机器学习训练多在CPU上执行,速度与最快的GPU相比大概慢了10倍,如今因机器和深度学习以及AI任务的运算效能成长速度已超过储存装置,因而产生了效能问题。

全快闪储存阵列领导厂商Pure Storage一直倡导数据平行运算工作负载需要平行储存解决方案的概念,表示该公司设计的FlashBlade解决方案具有扩充性,15个刀锋就能提供超过100个磁碟节点的效能,仅占用4U机箱空间,每秒读取吞吐量达17GB,每秒读写次数(IOPS)达150万,且延迟不到3毫秒(ms)。

Pure Storage表示FlashBlade最高可以扩充至75个刀锋(20U机架),实现高达75GB/s和740万IOPS吞吐量,容量为8PB,客户包括全球汽车安全系统的领导者Zenuity、英国系统定量投资先驱英仕曼AHL (Man AHL)和NVIDIA。

Pure开发的DirectFlash技术可帮助管理低层级的储存功能,透过专属的Purity操作系统协调平行功能,两者结合而成的完整FlashBlade解决方案将可满足包括AI和机器学习在内的任何高效能环境需求。

Pure Storage选择与NVIDIA合作是十分明智的,因为NVIDIA被视为改变和推动AI和机器学习技术的领导厂商,Pure Storage将产品定位为NVIDIA DGX-1的辅助技术,透过FlashBlade等高吞吐量和低延迟储存装置来加快DGX-1的性能。

关注DIGITIMES,产业资讯一手掌握

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180321A11SOH00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券