前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >在Jetson平台上用TensorRT加速PyTorch和TensorFlow时会遇到哪些坑儿?

在Jetson平台上用TensorRT加速PyTorch和TensorFlow时会遇到哪些坑儿?

作者头像
GPUS Lady
发布2020-05-07 14:49:20
1.3K0
发布2020-05-07 14:49:20
举报
文章被收录于专栏:GPUS开发者GPUS开发者

在本次演讲中,NVIDIA工程师将探讨为NVIDIA Jetson开发实时神经网络应用程序的技术。工程师将介绍使用PyTorch和TensorFlow框架设计的用于分析和优化神经网络的各种工作流。

此外,视频里还讨论在设计考虑实时部署的神经网络时需要考虑的实际约束。

如果您熟悉深度学习,但不熟悉NVIDIA提供的优化工具,那么这一节就是为您准备的。我们希望这次会议将有助于促进部署的实时应用程序在NVIDIA Jetson。

说白了,本次视频的关键就是告诉大家:

在Jetson平台上用TensorRT加速PyTorch和TensorFlow时会遇到哪些坑儿?

中文字幕我们已经放上了,欢迎大家指正:

我hight一下视频里的几个跟Jetson平台相关的重点地方:

1. 有人会想对比这四款模组的算力:

2. 有人会问Jetpack到底是啥?用这货刷机是啥意思?

3.在不同深度计算结构和计算精度下,Jetson NANO和Xavier的性能:

4. 下面这个表一定要记住:

5.性能/延迟性和批处理大小之间的关系:

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-04-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 GPUS开发者 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档