NVIDIA在太平洋时间3月8日上午11:00-12:00(北京时间3月9日凌晨3:00-4:00)举办了主题为“AI at the Edge: TensorFlow to TensorRT on Jetson”的网络研讨会。
基于TensorFlow开发的深度神经网络可以在NVIDIA Jetson上进行部署,且利用TensorRT可以实现5倍的加速。
如果错过了这个网络研讨会,没有关系,谁叫Lady我已经转录下来了呢?
Lady给你总结了一下这个讲座的内容:
1、在 inference 端,Tensorflow FP32 与 TensorRT FP32/FP16 的性能比较
2、案例说明:如何将 TensorFlow 模型移植到 TensorRT 执行
3、TensorRT 3.0 版在 TX2 尚未提供 python 接口,只能用 C++ 接口,只能用