首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何将onnx模型转换为tensorflow保存模型?

如何将onnx模型转换为tensorflow保存模型?
EN

Stack Overflow用户
提问于 2019-11-13 10:08:51
回答 1查看 16.2K关注 0票数 11

我试着用tf-服务来部署我的火炬模型。我已经把我的火炬模型出口到onnx了。如何为tf服务生成pb模型?

EN

回答 1

Stack Overflow用户

发布于 2020-02-05 21:27:48

使用onnx/onnx-tensorflow转换器工具作为ONNX的Tensorflow后端。

  1. 安装onnx-tensorflow:pip install onnx-tf
  2. 使用命令行工具进行转换:onnx-tf convert -t tf -i /path/to/input.onnx -o /path/to/output.pb

或者,您可以通过python进行转换。

代码语言:javascript
运行
复制
import onnx

from onnx_tf.backend import prepare

onnx_model = onnx.load("input_path")  # load onnx model
tf_rep = prepare(onnx_model)  # prepare tf representation
tf_rep.export_graph("output_path")  # export the model
票数 13
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/58834684

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档