我正在尝试int8量化我的模型在TensorFlow Lite上。转换本身使用tensorflow 1.15.3,但转换模型在麒麟990上运行得非常慢。(使用tensorflow 2.3.0的转换没有工作。)
tensorflow/示例中的mobilenet_v1_1.0_224_quant.tflite在Kirin 990上运行得很快。
所以我检查了差异。
如何转换像mobilenet_v1_1.0_224_quant.tflite这样的模型?
发布于 2020-09-08 05:49:06
发布于 2020-10-02 01:58:36
我在TensorFlow Lite六边形代表中发现了一条声明“TensorFlow Lite六边形代表中”支持“使用遗留量化感知的培训路径进行训练的模型”。这意味着你需要量化感知的训练,以获得Uint8的重量.我认为这是我的问题的答案,虽然这是没有用的,因为我需要训练后量化。
https://stackoverflow.com/questions/63700590
复制相似问题