首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

英伟达野心很大,GPUDirect Storage想要颠覆英特尔的天下

看资讯要看评论 科技独立评论号

8月12日消息,英伟达NVIDIA推出了名为GPUDirect存储(GPUDirect Storage)的数据传输技术,加快位在各种存储的数据,传输到GPU內存的速度,可以将带宽增加至原本的2到8倍,而且还能降低端到端的延迟达3.8倍。

由于人工智能以及高效能运算的数据集规模不断增加,应用程序载入数据花费的时间越来越长,进而影响了应用程序的性能,而且特别是端到端架构,会因为缓慢的I/O使得运算速度日益提升的GPU无用武之地。

英伟达提到,将数据从存储器载入到GPU,过去都是由CPU负责,而这将会成为硬件性能的瓶颈。

数据从NVMe磁盘传输到GPU內存的标准路径,是使用系统內存中的回弹缓存(Bounce Buffer)也就是额外的数据拷贝。而GPUDirect存储技术避免使用回弹缓存,以减少额外的数据副本,并使用直接內存存取引擎(Direct Memory Access,DMA)将数据直接放到GPU內存中,为远端或是本地存储。诸如NVMe或NVMe over Fabric,和GPU內存之间,建立一个直接传输数据的路径,而这能有效减轻CPU I/O的瓶颈,提升I/O带宽和传输数据的量。

英伟达发展GPUDirect存储技术,大幅提升GPU载入大型数据集的速度。英伟达提到,GPUDirect存储技术的主要功能,就是通过这个新的系统,以直接內存的存取方式,将数据传输至GPU內存上。(新闻来源:NVIDIA)

其实,早在2011年来自NVIDIA的熟悉解决方案架构师Simon See就介绍过CUDA在并行运算方面做出的改善。当时的CUDA 4.0版本就包含一些新的技术,包括GPUDirect 2.0、Unified Virtual Addressing和Thrust技术。

GPUDirect 2.0允许多GPU共同直接分享数据,而无需经过系统内存。而Unified Virtual Addressing可以在CPU和 多GPU之间建立一个连续的内存空间。而最重要的Thrust技术则可以加速并行C++程序,并且使得并行应用端口的连接更加方便。

可见GPUDirect Storage的推出,也是有所技术传承的,这与之前的GPUDirect 2.0有着很大的关系。

当然,GPUDirect Storage也是属于CUDA 5.0版本中的技术集而已。CUDA 5.0版本比之前的4.0更强大。

阿明观察评论:英伟达的野心很大,新的GPUDirect Storage想要颠覆现有的英特尔CPU架构,从而可以将GPU发挥出更大的效能,赢得一个全新的GPU世界。

心有多大胆,地有多大产。从GPU的持续创新来看,我还是非常佩服英伟达NVIDIA的。

因此,英特尔对此如何对策?值得进一步深挖。

——Aming编辑评论——

欢迎文末留言评论!

——更多好看的内容,直接戳——

Data-China (阿明观察:科技观察与评论)

Dostorage(全球存储观察:存储圈专业号)

Aming-Talk (全球云观察:云与IT专业号)

Artcame(全球艺术观察:艺术|试验|思考)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190813A0L6QO00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券