首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何在tensorflow/示例中转换像mobilenet_v1_1.0_224_quant.tflite这样的模型?

如何在tensorflow/示例中转换像mobilenet_v1_1.0_224_quant.tflite这样的模型?
EN

Stack Overflow用户
提问于 2020-09-02 07:21:35
回答 2查看 665关注 0票数 2

我正在尝试int8量化我的模型在TensorFlow Lite上。转换本身使用tensorflow 1.15.3,但转换模型在麒麟990上运行得非常慢。(使用tensorflow 2.3.0的转换没有工作。)

tensorflow/示例中的mobilenet_v1_1.0_224_quant.tflite在Kirin 990上运行得很快。

所以我检查了差异。

  1. 我的模型是int8(tf.lite.OpsSet.TFLITE_BUILTINS_INT8)量化,而mobilenet_v1_1.0_224_quant.tflite则是uint8量化。
  2. Conv2D的“过滤器”属性在mobilenet_v1_1.0_224_quant.tflite中有一个“量化”属性,而在我的转换模型中,Conv2D的“过滤器”属性没有“量化”属性。

如何转换像mobilenet_v1_1.0_224_quant.tflite这样的模型?

EN

回答 2

Stack Overflow用户

发布于 2020-09-08 05:49:06

票数 0
EN

Stack Overflow用户

发布于 2020-10-02 01:58:36

我在TensorFlow Lite六边形代表中发现了一条声明“TensorFlow Lite六边形代表中”支持“使用遗留量化感知的培训路径进行训练的模型”。这意味着你需要量化感知的训练,以获得Uint8的重量.我认为这是我的问题的答案,虽然这是没有用的,因为我需要训练后量化。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/63700590

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档