首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

IBM使用GPU将机器学习效率提升十倍

通常,需要TB的内存才能模拟某些机器学习模型。所需的

服务器

硬件相当昂贵,甚至一旦建立操作,计算能力仍然是研究人员的一个问题。运行一个测试几天甚至几个星期,使得研究人员难以按小时租用硬件进行机器学习。

利用GPU进行并行计算已经有好多年了,但目前的显卡还没有达到IBM研究所需的太字节内存需求。目前针对GPU,有不同节点分割计算需求的方法,但不是所有的任务都适合分配。对此,IBM现在允许其机器学习工具随着算法的进展而改变对单个数据片段的调用。简而言之,过去的成就将贯穿整个验证阶段,以便为系统提供反馈,使系统比以前更快地指向正确的方向。

在初步测试期间,IBM使用了配有8GB GDDR5内存的NVIDIA Quadro M4000显卡。在这种价格适中的专业图形卡上IBM证明,与标准的顺序操作方法相比,使用DuHL系统可以将支持向量机训练速度提高10倍以上。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171209C01YOW00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券