前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >今天学习如何用TLT和TensorRT做路标识别的训练和推理,你学废了么?

今天学习如何用TLT和TensorRT做路标识别的训练和推理,你学废了么?

作者头像
GPUS Lady
发布2020-09-25 16:23:07
1.4K0
发布2020-09-25 16:23:07
举报
文章被收录于专栏:GPUS开发者GPUS开发者

今天(9月20日)早上9点30分开始,参加第二届Sky Hackathon大赛的学生团队、导师和旁听的开发者,近200人参加了NVIDIA举办的赛前在线培训课程。

在此过程中,培训内容主要覆盖:

  • 基于目标检测的深度学习模型的训练过程
  • 利用NVIDIA Transfer Learning Toolkit对模型进行剪枝等优化过程
  • 利用NVIDIA TensorRT对训练好的模型进行部署
  • 利用Jetson Nano进行实际场景实验
  • 深度学习数据集的收集,筛选,清理和标注等过程。

我们Highlight几个重点:

TLT入门非常容易。使用TLT训练AI模型不需要AI或深度学习方面的专业知识。具有深度学习基础知识的用户可以开始使用简单的spec文件和预先训练的模型来构建自己的定制模型。

预训练的模型也可以从NGC下载。该工具包包含一个命令行界面(CLI),可以从Jupyter笔记本运行,这些笔记本包装在Docker容器中。TLT由一些简单的命令组成,例如数据增强,训练,修剪和模型导出。TLT的输出是经过训练的模型,可以使用DeepStreamTensorRT在NVIDIA边缘设备上进行部署以进行推理。

TLT旨在在具有NVIDIA GPU的x86系统上运行,例如基于GPU的工作站或DGX系统,或者可以在具有NVIDIA GPU的任何云中运行。

TensorRT是一个高性能的深度学习推理(Inference)优化器,可以为深度学习应用提供低延迟、高吞吐率的部署推理。TensorRT可用于对超大规模数据中心、嵌入式平台或自动驾驶平台进行推理加速。TensorRT现已能支持TensorFlow、Caffe、Mxnet、Pytorch等几乎所有的深度学习框架,将TensorRT和NVIDIA的GPU结合起来,能在几乎所有的框架中进行快速和高效的部署推理。

TensorRT加速DL Inference的能力来源于optimizer和runtime。其优化原理包括四个方面:

-Layer & Tensor fusion: 将整个网络中的convolution、bias和ReLU层进行融合,调用一个统一的kernel进行处理,让数据传输变快,kernel lauch时间减少,实现加速。此外,还会消除一些output未被使用的层、聚合一些相似的参数和相同的源张量。

-Mix precision:使用混合精度,降低数据的大小,减少计算量。

-kernel auto-tuning:基于采用的硬件平台、输入的参数合理的选择一些层的算法,比如不同卷积的算法,自动选择GPU上的kernel或者tensor core等。

-Dynamic tensor memory:tensorrt在运行中会申请一块memory,最大限度的重复利用此内存,让计算变得高效。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-09-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 GPUS开发者 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
容器服务
腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档