我在我的python文件中导入了tensorflow.contrib。 import tensorflow.contrib.tensorrt as trt 使用此命令在anaconda上运行时。"D:\work\pose estimation\tf-pose-estimation\tf_pose\estimator.py", line 14, in <module>ModuleNot
我在Tensorflow模型中使用了Tensorflow操作ResizeArea、Select、Fill和Equal。# The "clipMin" and "clipMax" fields of this TensorFlow node will be parsed by createPlugin,: trt_equal, ModelData.HMAT_NAM
我使用以下脚本将我的frozen_inference_graph转换为TensorRT优化的a:from tensorflow.python.compiler.tensorrtimport trt_convert as trt
# First deserialize your frozen graph:)
# Now you can create a TensorRT inference graph f
我将我的tensorflow模型转换为具有tensorRT精度模式的FP16。而且速度比我预期的要慢。在优化之前,我使用.pb冻结图进行推理。经过tensorRT运算后,我得到了14 have。下面是使用TensorRt优化tensorflow保存模型的代码:from tensorflow.python.compiler.tensorrt importtrt_convert as trt
param