我试着用tf-服务来部署我的火炬模型。我已经把我的火炬模型出口到onnx了。如何为tf服务生成pb模型?
发布于 2020-02-05 21:27:48
使用onnx/onnx-tensorflow转换器工具作为ONNX的Tensorflow后端。
pip install onnx-tf
onnx-tf convert -t tf -i /path/to/input.onnx -o /path/to/output.pb
或者,您可以通过python进行转换。
import onnx
from onnx_tf.backend import prepare
onnx_model = onnx.load("input_path") # load onnx model
tf_rep = prepare(onnx_model) # prepare tf representation
tf_rep.export_graph("output_path") # export the model
https://stackoverflow.com/questions/58834684
复制相似问题