腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9255)
视频
沙龙
1
回答
TFLite
解释
器
在
Android
上
加载
量化
模型
失败
、
、
、
、
我有一个
TFLite
模型
。
模型
输入是一幅256x192的图像,它被
量化
为16位。它是用这个转换器
量化
的: converter.optimizations = [tf.lite.Optimize.DEFAULT]
tflite
_model = converter.convert() 我正在尝试将它
加载
到我的安卓应用程序中,但在执行
tflite
= ne
浏览 23
提问于2020-08-06
得票数 0
1
回答
如何在ONNX
模型
中找到
量化
参数,从而将已经
量化
的
tflite
模型
转换为ONNX?
、
、
、
我想要做的是将
量化
的
tflite
转换为ONNX,并使用tf2onnx直接使用ORT运行它。我试图转换的网络是YOLOv5,使用我自己的dataset + COCO进行预培训,
模型
已经成功转换。我确信这一点,因为我只是尝试
加载
ONNX
模型
(通过PRT)和
tflite
模型
,从
tflite
解释
器
的输入和输出细节中保存
量化
参数,使用这些
量化
参数实际运行ONNX
模型
的会话,
浏览 20
提问于2022-10-28
得票数 0
回答已采纳
2
回答
如何将
tflite
文件嵌入
Android
应用程序?
、
使用
TFlite
文件并将其嵌入到实际的安卓应用程序中的步骤说明是什么?供参考,这是回归。输入将是一个图像,输出应该是一个数字。我已经看过了TensorFlow文档,但是他们并没有
解释
如何从头开始。
浏览 0
提问于2019-01-23
得票数 0
回答已采纳
3
回答
将TensorFlow Keras
模型
转换为
Android
.
tflite
模型
、
、
、
据我理解,我需要创建一个具有所有提取的图像特性的.h5文件和一个包含
模型
的.
tflite
文件。应答后的更新# Convert the model.model = Model(inputs=base_model.input= converter.convert() with open('model.
tflite
', 'wb')
浏览 15
提问于2022-04-22
得票数 0
回答已采纳
1
回答
TFLite
模型
精度
在
Android
上
较差
、
、
、
、
我有一个自定义的语音识别
模型
,转换为
TFLite
,
在
PC
上
的python中表现出色。
在
Android
上
运行相同
TFLite
模型
的推理时,精度会下降。所有的处理都发生在
TFLite
模型
层(特征提取等)。因此,
在
Android
系统中,没有任何代码可以产生不同的效果。
在
python和
Android
中,对
模型
的输入是波
浏览 0
提问于2021-10-04
得票数 1
1
回答
全量子化tensorflow
模型
的输入图像
、
、
我
在
tensorflow的Cifar-10
上
训练了一个简单的CNN
模型
,并使用了假
量化
()。然后我使用toco生成了一个.
tflite
文件。现在,我想使用python
解释
器
来测试
tflite
模型
。由于我
在
训练过程中用tf.image.per_image_standardization减去均值和除以方差。我需要对测试数据做同样的事情,对吗?但是,问题是,我的
模型
已经被
tflite
完全
浏览 3
提问于2018-10-27
得票数 4
回答已采纳
2
回答
如何转换为边缘TPU板的自定义数据集培训的
模型
?
、
、
、
、
我运行我的“预测”脚本,它在GPU
上
运行得很好。现在,我想将
模型
转换为lite,并在板
上
运行,以检测我的自定义对象。我已经浏览了谷歌珊瑚委员会网站提供的文档,但我发现它非常令人困惑。如何在Google Coral Edge TPU板
上
转换和运行?谢谢
浏览 2
提问于2020-01-21
得票数 1
2
回答
TFlite
解释
器
在为
量化
模型
分配张量时会引发RuntimeError。涉及scale_diff和output_scale的
失败
断言
、
、
、
亲爱的开发人员和神经网络爱好者,我已经
量化
了一个
模型
(8位训练后
量化
),我正在尝试使用
tflite
interprter对结果
模型
进行推理。
在
某些情况下,
解释
器
可以正常运行,我可以像预期的那样对
量化
模型
进行推断,输出足够接近原始
模型
。因此,我的设置似乎是正确的。然而,根据具体的
量化
模型
,我经常偶然发现以下RuntimeError。由于误差似乎与偏差的规模有关,因此
浏览 1
提问于2020-07-01
得票数 2
1
回答
Coral Edge TPU编译
器
无法转换
tflite
模型
:
模型
未
量化
、
、
、
、
我想在我的设备
上
使用Coral Edge TPU棒,所以我必须执行
量化
感知训练。我想要拟合一个函数f(x) = 2 x - 1。显然,它也使用了
量化
的权重。如果我不启用
量化
感知训练,这两个变量将不会出现。 此外,此
模型
可以由tf-lite
解释
器
实例
加载
和执行。安装之后,我执行 edgetpu_compiler quant_linear.
tflite
不幸的是,它似乎无法识别
模型
是
量化
的。Invali
浏览 12
提问于2019-07-03
得票数 1
1
回答
如何解决“初始化
tflite
模型
时无法
在
android
中创建
解释
器
错误”?
、
、
我已经使用
tflite
转换
器
将keras .h5
模型
转换为.
tflite
。当我试图
在
android
的
解释
器
中
加载
这个
模型
时,它显示了以下错误: 内部错误:无法创建
解释
器
:找不到内置操作码'FULLY_CONNECTED‘版本'3’的op。
浏览 1
提问于2019-07-10
得票数 2
1
回答
我如何在
Android
的Tensorflow Lite
上
使用HAL版本1.2?
、
、
、
我有一个
量化
的TensorflowLite
模型
,我正在
加载
到运行
Android
11的Pixel 3
上
。我使用Tensorflow Lite 2.5构建了这个
模型
,我使用的是每晚为
Android
构建的Tensorflow。/OperationsUtils(16
浏览 5
提问于2021-03-22
得票数 0
回答已采纳
1
回答
训练后
量化
后的“
模型
未
量化
”取决于
模型
结构?
、
、
、
、
似乎训练后
量化
对某些
模型
结构有效,而对其他
模型
结构无效。edgetpu_compiler my_mnist_quant.
tflite
命令可以很好地工作,并创建一个
tflite
模型
,该
模型
的性能与我
在
服务
器
上
训练的
模型
相当。input_shape=(28,28,1)), keras.layers.Dense(10, activation=
浏览 28
提问于2020-07-09
得票数 0
回答已采纳
2
回答
在
tensorflow中获得量子化激活
我试图
在
tf lite中获得中间特征映射值。我建造了最新的TF 1.10.1
浏览 4
提问于2018-09-17
得票数 0
回答已采纳
1
回答
Windows环境下的Tensorflow
量化
、
、
、
我冻结了我的
模型
并得到了.pb文件。然后我
在
Linux
上
使用tocoConverter
量化
了我的
模型
,因为它在Windows
上
不受支持。我找到quantized_model.
tflite
了。我可以
在
Linux
上
加载
它并获得预测,但我
在
Windows
上
实现它时会遇到问题,因为我的项目需要这样做。我尝试使用以下代码使用tf.contrib.lite.Interpreter
加载<
浏览 1
提问于2018-09-26
得票数 1
1
回答
如何从
tflite
模型
中输出形状数组[ 1,28,28,1]作为
android
中的图像
、
、
、
我保存了一个
tflite
模型
,其输入和输出详细信息如下: 输入 :[{'name':‘稠密_4_input’,'index':0,'shape':数组( 1,100,dtype=int32),'shape_signature':数组( 1,100,dtype=int32),'dtype':,‘
量化
’:(0.0,0),‘
量化
_参数’:{‘缩放’:数组([],dtype=float32),‘零点’:数组([],dtype=i
浏览 1
提问于2020-06-12
得票数 0
回答已采纳
1
回答
将.pb
模型
转化为
量化
的
tflite
模型
、
、
对于Tensorflow来说,我是完全陌生的,我创建了一个对象检测
模型
(.pb和.pbtxt),它使用我
在
TensorFlow动物园发现的'faster_rcnn_inception_v2_coco_2018_01_28‘
模型
。如何将冻结的
模型
转换为edgetpu.
tflite
量化
模型
?
浏览 2
提问于2020-06-24
得票数 0
回答已采纳
2
回答
无法测试和部署deeplabv3 3-mobilenetv2 2 tensorflow-lite分割
模型
进行推理
、
、
、
我们尝试使用deeplabv3和model 2
在
android
上
运行一个语义分割
模型
。我们采用TOCO和
tflite
_convert的官方tensorflow lite转换程序,借助官方的TensorFlow DeepLab
模型
动物园获得了bazel.The源冻结图。_UINT8 8--推断_类型=浮点-平均值=128-STD_dev_值=127-ALL_定制_ops--训练后
量化
当我们尝试使用官方的基准测试工具测试
模型
时,
tflite
浏览 3
提问于2018-11-09
得票数 9
2
回答
TFLITE
中的tf.signal.rFFT不适用于JAV
、
、
、
、
系统信息我只是试图建立一个
模型
,以时间序列数据作为输入和计算rFFT/irFFT我已经把它转换成
TFLITE
,它在python中工作得非常好。但是当我把它
加载
到
android
演播室时,它给了我一个翻译
器
。:当我
在
python
上
给出这个
TFLITE</em
浏览 16
提问于2021-04-02
得票数 0
回答已采纳
1
回答
Mask_RCNN:如何保存经过训练的
模型
并将其转换为
tflite
、
、
、
mask_rcnn_kangaroo_cfg_0004.h5我是个新手,所以我的理解可能是错误的: 如何将这些.h5文件转换为.pb文件,或者更好地转换为.
tflite
文件,以便在
Android
对象检测应用程序中使用它们?
浏览 3
提问于2020-02-05
得票数 1
1
回答
将tensorflow keras LSTM
模型
转换为.
tflite
或任何工作格式
、
、
、
、
我很难将我的
模型
转换成一个可以通过
android
-studio部署到
android
应用上的
模型
。我的
模型
解释
如下:model.add(LSTM(70, activation='relu', input_shape=(n_steps, n_featuresmodel.add(Dense(1))然后由
浏览 5
提问于2019-09-28
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券