Nvidia开发人员用了大量新工具来构建智能系统

Nvidia周二为盐湖城计算机视觉和模式识别会议推出了一批AI开发人员的新工具。

其中一些已经在今年早些时候在其GPU技术会议(GTC)上宣布。这是一个快速简要说明:

  • Nvidia GPU 上的Kubernetes

Beta版平台使用Kubernetes系统的图形卡现在可供开发人员测试

它针对的是处理大量AI工作负载的企业,这些工作负载需要在多个GPU云群集之间共享。大型数据集和模型需要很长时间才能训练,所以使用Kubernetes将加快训练和推理。它会自动部署,维护和调度跨节点集群的几个GPU容器。

“随着人工智能驱动应用程序和服务数量的增加以及公共云中GPU的广泛可用性,开源Kubernetes需要具备GPU能力。借助NVIDIA GPU上的Kubernetes,软件开发人员和DevOps工程师可以无缝地构建GPU加速深度学习培训或推理应用程序,并将其部署到异构GPU群集中,“Nvidia 在博客中

  • TensorRT 4

首席执行官Jensen Huang在三月份在Santa Clara的GTC的GTC上推出了TensorRT4作为“推理引擎”。

该框架使得它能够更快速地为神经机器翻译应用程序或推荐系统等应用程序执行强大的数字运算。它还支持开源的ONNX平台,以便开发人员可以导入以其他深度学习框架编写的模型,并通过API将其集成到TensorFlow中。

如果你是Nvidia的注册开发者计划的一部分,现在你可以在这里免费下载。

  • Nvidia Dali + Nvidia nvJPEG

这些都是计算机视觉的库。

Nvidia Dali可以更快速地加载,调整和解码数据集中的图像,以便它们可以被不同框架(包括亚马逊的MxNet,Google的TensorFlow和PyTorch)编写的模型快速使用。

Nvidia nvJPEG旨在解码使用CPU和GPU的jpeg文件。

大理在这里 GitHub上。下载nvJPEG的预发行版就在这里

  • PyTorch的Apex

这是一个开放源码的扩展,允许PyTorch开发者在Nvidia的Volta GPU系列上优化他们的神经网络模型。

它包括加快翻译网络培训过程,情感分析和图像分类的工具。

Nvidia在一篇博客文章中解释道:“Apex提供FP16或FP32操作的自动执行,主参数转换的自动处理以及自动损耗扩展,所有这些都可以对现有代码进行4或更少的行更改。

Apex仍在更新中,您可以在此下载。®

  • 发表于:
  • 原文链接http://www.theregister.co.uk/2018/06/19/nvidia_new_tools
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券