我有一个冻结为.pb的TensorFlow图形,我想将其转换为.onnx格式。我目前正在尝试使用mmconvert (来自微软的),显然我做错了什么(参见下面的代码)。有没有其他推荐的将.pb转换为.onnx的方法?谢谢。
下面是我使用的命令:
mmconvert -sf tensorflow -iw /frozen_models/model.pb --inNodeName input --inputShape 512 -df onnx -om tf_mobilenet --inNodeName input
这就给出了错误
ValueError: Need to provide the out
因此,我有一个从“https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/detection_model_zoo.md”下载的对象检测模型;模型的名称是"faster_rcnn_resnet101_fgvc“。我尝试使用https://www.tensorflow.org/lite/guide/ops_select中给出的python代码将模型转换为.tflite格式(因为我有冻结的图形"frozen_inference_graph.pb") import ten
我正在尝试使用tensorflow创建一个android应用程序来进行对象分类。我使用MobileNet-SSD训练了一个简单的模型。我根据给定的的guid行创建了应用程序。它与示例中使用的模型一起工作得很好,但对于我创建的模型,它给了我以下错误:
Caused by: java.lang.RuntimeException: Node 'output' does not exist in model 'file:///android_asset/ssd_mobilenet_2classes.pb'
at org.tensorflow.contrib.a
我有tensorflow模型的.meta和.ckpt文件。我想知道确切的输入和输出节点名称,但我通过以下获得了一个节点名称列表。
当我有一个冻结的protobuf模型时,我使用以下代码获得输入节点名称和输出节点名称作为列表的开始和结束:
import tensorflow as tf
from tensorflow.python.platform import gfile
GRAPH_PB_PATH = 'frozen_model.pb'
with tf.Session() as sess:
print("load graph")
with gfil
这个问题与这个问题非常相似:,但那个问题还没有得到回答,我有一个不同的方法来解决这个问题。因此,我想要一些输入。
我还试图加载一个.pb二进制文件,然后冻结它。这是我尝试过的代码。
如果这对你有任何启发,请告诉我。这不会返回错误。它让我的jupyter笔记本崩溃了。
import tensorflow as tf
import sys
from tensorflow.python.platform import gfile
from tensorflow.core.protobuf import saved_model_pb2
from tensorflow.python.util impo
我使用MobileNet_v1_1.0_224 tensorflow模型进行对象检测。现在,我有了我需要转换为tflite扩展的自定义冻结图(.pb文件),这样我就可以在移动设备上使用我的模型了。
有人能帮我识别这个张图中的输入和输出名称吗?我需要它们作为输入和输出参数,将冻结的图形(.pb文件)转换为tensorflow lite (.tflite)文件。