腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
如何
从
量化
的
TFLite
中
获取
类
索引
?
python
、
tensorflow
、
tensorflow-lite
我一直在用TensorFlow训练一个
量化
的
Mobilenet V2,但我不知道
如何
从
它获得
类
索引
。 我使用
的
是Tensorflow 1.12 下面是我
的
输入和输出
的
详细信息。128], dtype=int32), 'quantized_dimension': 0}, 'sparsity_parameters': {}}] Output details [{'name': &
浏览 29
提问于2021-01-20
得票数 2
回答已采纳
4
回答
如何
查看.
tflite
文件
中
的
权重?
tensorflow
、
tensorflow-lite
我得到了MobileNet
的
预先训练
的
.pb文件,发现它没有被
量化
,而完全
量化
的
模型应该被转换成.
tflite
格式。由于我不熟悉移动应用开发工具,
如何
从
.
tflite
文件
中
获取
MobileNet
的
完全
量化
的
权重。更准确地说,
如何
提取
量化
参数并查看其数值?
浏览 1
提问于2018-08-31
得票数 10
2
回答
如何
从
tflite
模型
中
获得权重?
tensorflow
我有一个简单
的
网络,我做了剪枝和
量化
使用tensorflow。我特别遵循本教程在我
的
网络上应用: 最后,我得到了
tflite
文件。我想从这个文件中提取权重。我怎么能从这个
量化
的
模型
中
得到权重呢?我知道
从
'h5‘文件
中
获取
权重
的
方法,但不知道
从
'
tflite
’文件
中
获取
权重
的
方法。或者,在对模
浏览 1
提问于2019-07-25
得票数 3
回答已采纳
1
回答
我可以
量化
我
的
tensorflow图表
的
完整版本
的
TF,而不是
tflite
?
tensorflow
我需要
量化
我
的
模型,以便在tensorflow
的
完整版中使用。我不知道该怎么做(在模型
量化
的
官方手册
中
,模型是以
tflite
格式保存
的
)
浏览 4
提问于2019-07-04
得票数 0
1
回答
为什么来自
量化
感知训练模型
的
TFLite
模型与具有相同权重
的
正常模型不同?
tensorflow
、
keras
、
tensorflow-lite
、
quantization-aware-training
我正在训练一个Keras模型,我想在一个
量化
的
8位环境(微控制器)中使用
TFLite
来部署它。为了提高
量化
性能,我进行
量化
感知训练。然后,我使用我
的
验证集作为一个有代表性
的
数据集创建
量化
的
TFLite
模型。性能使用验证集进行评估,并在此图像中加以说明: 如果不是简单地
从
经过QA训练
的
模型(图中红色)生成
TFLite
模型(图中
的
青色),而是将经过
浏览 9
提问于2021-03-02
得票数 0
回答已采纳
2
回答
如何
在tensorflow/示例中转换像mobilenet_v1_1.0_224_quant.
tflite
这样
的
模型?
tensorflow-lite
我正在尝试int8
量化
我
的
模型在TensorFlow Lite上。转换本身使用tensorflow 1.15.3,但转换模型在麒麟990上运行得非常慢。(使用tensorflow 2.3.0
的
转换没有工作。) tensorflow/示例
中
的
mobilenet_v1_1.0_224_quant.
tflite
在Kirin 990上运行得很快。我
的
模型是int8(tf.lite.OpsSet.
TFLITE
_BUILTINS_INT8)
量化<
浏览 9
提问于2020-09-02
得票数 2
1
回答
如何
在ONNX模型中找到
量化
参数,从而将已经
量化
的
tflite
模型转换为ONNX?
onnx
、
yolov5
、
quantization
、
tf2onnx
我想要做
的
是将
量化
的
tflite
转换为ONNX,并使用tf2onnx直接使用ORT运行它。我试图转换
的
网络是YOLOv5,使用我自己
的
dataset + COCO进行预培训,模型已经成功转换。我确信这一点,因为我只是尝试加载ONNX模型(通过PRT)和
tflite
模型,
从
tflite
解释器
的
输入和输出细节中保存
量化
参数,使用这些
量化
参数实际运行ONNX模型
的
会话,
浏览 20
提问于2022-10-28
得票数 0
回答已采纳
1
回答
基于tensorflow模型推理
的
正确预处理流水线
python
、
android
、
tensorflow
、
tensorflow-lite
、
image-preprocessing
这个问题与
从
标准
的
Mobilenetv2模型转换而来
的
tflite
模型
的
推断有关.
浏览 7
提问于2020-06-11
得票数 1
1
回答
量化
目标检测模型
tensorflow
、
object-detection
、
tensorflow-lite
、
quantization
',[6] '
TFLite
_Detection_PostProcess:2',= converter.convert()[18]
tflite
_file.write(
tflit
浏览 28
提问于2020-09-07
得票数 0
1
回答
多个签名
中
的
TFLite
输入/输出
量化
tensorflow
、
tensorflow-lite
、
quantization
TFLite
模型转换允许自动
量化
或反
量化
模型
的
输入或输出。您可以通过像这样适当地设置inference_input_type和inference_output_type来做到这一点。converter.representative_dataset = representative_data_gen converter.target_spec.supported_ops = [tf.lite.OpsSet.
TFLITE
_BUILTINS_INT8converter.inference_input_type
浏览 51
提问于2021-09-24
得票数 0
1
回答
量化
tflite
模型比非
量化
模型具有更大
的
apk。
android
、
tensorflow
、
tensorflow-lite
嗨,我用自定义数据集训练了inceptionV3分
类
模型,得到了retrained.pb和retrained_labels.txt。= converter.convert()我得到了大小为85 MB
的
tflite
模型,并构建了一个大小为113 MB
的
apk文件,并使用以下命令对模型进行了
量化
tflite</
浏览 1
提问于2018-12-20
得票数 1
2
回答
条纹切片
的
误差--流光体
c++
、
tensorflow-lite
、
quantization
我正面临着坦索弗莱
的
问题。我知道这个错误:我用MNIST数据训练了一个模型。tf.keras.layers.MaxPooling2D(pool_size=(2, 2)), tf.keras.layers.Dense(10)我使用整数
量化
来转换模型我真不知道该
如何
处理这种问题。有任何方法来改变这个节点上
的
行为吗?
浏览 3
提问于2020-11-15
得票数 1
1
回答
利用TF-2.0将saved_model转换为
TFLite
模型
python
、
tensorflow
、
tensorflow2.0
、
tensorflow-lite
目前,我正致力于将自定义对象检测模型(使用SSD和初始网络进行培训)转换为
量化
的
TFLite
模型。我可以使用以下代码片段(使用
TFLite
Tensorflow 1.4)将自定义对象检测模型
从
冻结图转换为
量化
的
模型:'
TFLit
浏览 2
提问于2020-01-10
得票数 1
回答已采纳
3
回答
TensorFlow伪
量化
层也是
从
TF-Lite调用
的
。
tensorflow
、
quantization
、
tensorflow-lite
、
quantization-aware-training
我使用TensorFlow 2.1来训练具有
量化
感知训练
的
模型.这些节点应该调整模型
的
权重,这样它们就更容易被
量化
为int8,并且更容易处理int8数据。converter.optimizations = [tf.lite.Optimize.DEFAULT]quantized_
tflite
_model= converter.convert() 此时,我不希望看到TL-Lite图中
的</
浏览 10
提问于2020-06-17
得票数 5
2
回答
从
保存
的
模型转换为
量化
。
tflite
,“未支持op:定制
的
量化
”
tensorflow-lite
、
quantization
我读过类似的问题,我引用了这个tensorflow站点来使用整数
量化
进行转换.但是,它返回此错误:converter.representative_dataset = representative_data_gen#write the qu
浏览 6
提问于2021-04-20
得票数 0
1
回答
如何
正确地将
tflite
_graph.pb转换为detect.
tflite
python
、
tensorflow
、
object-detection-api
、
tensorflow-lite
我正在使用tensorflow对象检测api来训练来自tensorflow
的
自定义模型。 我成功地训练了模型,并使用提供
的
脚本对其进行了测试。问题是,我需要一个detect.
tflite
在我
的
目标机器(一个嵌入式系统)中使用它。但是,当我实际用我
的
模型制作一个斜板时,它几乎没有输出任何,当它输出时,它是一个错误
的
检测。为了创建.
tflite
文件,我首先在输出中使用了export_
tflite
_ssd_graph.py,然后在输出中使用了toco,方法
浏览 2
提问于2020-05-12
得票数 3
回答已采纳
2
回答
如何
量化
优化
tflite
模型
的
输入输出
python
、
tensorflow-lite
、
google-coral
我使用以下代码生成
量化
的
tflite
模型 for _ in range(num_calibration_stepsconverter.optimizations = [tf.lite.Optimize.DEFAULT]
tflite
_quant_model= converter.c
浏览 5
提问于2019-07-02
得票数 2
回答已采纳
1
回答
将keras模型转换为
量化
的
tflite
损失精度
tensorflow
、
keras
、
tpu
、
tensorflow-lite
我正在尝试将keras模型转换为
tflite
量化
模型,这样我就可以在coral TPU上运行我
的
模型,但我
的
keras模型和
tflite
模型
的
输出明显不同。红点是
量化
的
tflite
模型输出,蓝点是原始keras模型输出。quant = Trueimport tensorflow as
浏览 4
提问于2020-05-28
得票数 1
2
回答
TensorFlowLite张量与UINT8
类
型和类型
的
Java对象[F(与TensorFlowLite类型FLOAT32兼容)
flutter
、
tensorflow
、
dart
、
tensorflow-lite
我创建了一个移动应用程序,可以识别图像使用颤振,我得到了这个运行时错误
的
应用程序测试。我使用TensorFlow lite图像分类来训练我
的
定制模型,并在Google上运行。
浏览 50
提问于2022-02-03
得票数 0
回答已采纳
2
回答
不支持
的
TensorFlow op:去
量化
python
、
tensorflow
、
deep-learning
使用Tensorflow 1.6.0toco --input_format=TENSORFLOW_GRAPHDEF --input_file=/home/sudheer_sure/r_mobil enet/tf_files/retrained_graph.pb --output_format=
TFLITE
--input_shapes=1,224,224,3 --mean_valu
浏览 3
提问于2018-05-03
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何利用Parent-Child关系解决大数据场景下的实时查询?
【Python进阶】Python中的深度学习优化技术:模型压缩与加速
【Python进阶】Python中的深度学习优化技术:模型压缩与加速
TensorFlow Lite Android部署介绍
TensorFlow 1.7.1 发布,修复了一些潜在的安全问题
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券