前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >英伟达深度学习推理引擎TensorRT,现在开源了

英伟达深度学习推理引擎TensorRT,现在开源了

作者头像
机器之心
发布2019-06-21 14:28:37
7900
发布2019-06-21 14:28:37
举报
文章被收录于专栏:机器之心

机器之心报道

参与:李亚洲、李泽南、思

英伟达的深度学习推理引擎TensorRT是连接神经网络框架与GPU之间的桥梁,它支持所有种类的神经网络框架,近期也实现了容器化,目前的TensorRT是5.1版。6月17日,英伟达宣布了TensorRT的开源。

项目链接:https://github.com/NVIDIA/TensorRT

本次开源的内容是英伟达 TensorRT 的一部分,其中包括 TensorRT 的插件与一些解析器(Caffe 和 ONNX),以及演示 TensorRT 平台的使用和功能的示例应用程序。相信未来更多的内容也会持续开源。

TensorRT 是一个高性能深度学习推理平台,能够为在英伟达 GPU 上运行的语音、视频等 APP 提供更低地延迟、更高的吞吐量。TensorRT 包含输入模型的解析器、支持全新 ops 的插件以及在利用优化进行推理之前的层。

今日,英伟达宣布开源 TensorRT 中的解析器和插件部分,以便于深度学习社区能够做自定义、扩展组件,从而更好的利用 TensorRT 进行 app 优化。

TensorRT 的 GitHub 项目目前已经开放了,其包括贡献指南,它会告诉我们如何参与这一优秀工具的完善。英伟达表示他们将在新版本发布时,合并且发布最新的代码。

例如你可以贡献:

  • 针对 ONNX 格式和 Caffe 扩展解析器,用全新 ops 把模型输入到 TensorRT
  • 插件程序让你能够在 TensorRT 中运行自定义 ops。使用开源的插件作为参考,或者建立全新的插件从而支持新的层(layers)
  • 示例只是提供了一个起点,用户也可以贡献全新工作流和管道的示例。

英伟达的目标在于为社区提供更多的特性,并同时更方便地利于开发者对社区做出贡献。英伟达开发者博客介绍了如何开始使用 TensorRT,读者们也能从 TensorRT 的产品页面或这次新构建的 GitHub 项目获取它。

官方教程:如何使用 TensorRT 加速深度学习推断

地址:https://devblogs.nvidia.com/speed-up-inference-tensorrt/

最后,GitHub 项目中对于如何安装 TensorRT 开源软件及构建环境都有非常详细的描述,感兴趣的读者快来试试吧。

参考内容:

https://news.developer.nvidia.com/nvidia-open-sources-parsers-and-plugins-in-tensorrt/ https://github.com/NVIDIA/TensorRT

本文为机器之心报道,转载请联系本公众号获得授权。

✄------------------------------------------------

加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告 & 商务合作:bd@jiqizhixin.com

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-06-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
容器服务
腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档