腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
mobilenet
V1
不
工作
的
训练
后
量化
、
、
我正在尝试将
mobilenet
V1
.pb文件转换为
量化
的
tflite文件。我使用下面的命令进行
量化
: tflite_convert \ --graph_def_file=/home/wc&
浏览 18
提问于2019-09-10
得票数 2
回答已采纳
1
回答
ssd_
mobilenet
_v1_coco对ssd_
mobilenet
_v1_quantized_coco
、
、
、
、
我知道其中一个可能是经过
量化
训练
的
,并且是
量化
的
,而另一个则不是。他们
的
检查站有什么区别吗?因为两者都有相同大小
的
检查点。我想通过对珊瑚边缘tpu
的
量化
感知
训练
来
训练
我自己
的
数据集
的
ssd_
mobilenet
_v1。当我使用ssd_
mobilenet
_v1_quantized_coco
的
检查点时,程序会给我带来
浏览 2
提问于2019-11-05
得票数 0
1
回答
NMS在tensorflow-lite
量化
模型中不起作用
、
、
最近我使用tensorflow对象检测API来
训练
对象检测器(ssd
mobilenet
v1
)。我想在Coral Edge TPU上运行检测,所以我使用了
量化
感知
训练
。我将以下部分添加到我
的
pipeline.config中以启用
量化
: graph_rewriter { delay: 1800 weight_bits: 8}
训练
结束
后</
浏览 54
提问于2020-04-08
得票数 1
4
回答
如何查看.tflite文件中
的
权重?
、
我得到了
MobileNet
的
预先
训练
的
.pb文件,发现它没有被
量化
,而完全
量化
的
模型应该被转换成.tflite格式。由于我不熟悉移动应用开发工具,如何从.tflite文件中获取
MobileNet
的
完全
量化
的
权重。更准确地说,如何提取
量化
参数并查看其数值?
浏览 1
提问于2018-08-31
得票数 10
3
回答
如何在TF Lite上
训练
移动网络-
v1
量化
模型
我从Tensorflow Hub重新
训练
了一个
mobilenet
v1
图像分类模型,并使用toco将其转换为使用Tensorflow Lite进行推理。但是,当我使用tflite模型运行推断时,它需要一个与我用--input_shape指定
的
不同
的
输入大小。 使用上述数据集在TF集线器上
的</em
浏览 3
提问于2018-06-22
得票数 0
回答已采纳
1
回答
在微控制器上调用失败
的
() Tensorflow Lite
、
、
为此,我使用了
Mobilenet
V1
架构。我
训练
了模型,后来将其
量化
为全整数,并将其转换为.tflite。后来,我对Pete Warden编写
的
Arduino代码使用了Person Recoginition,并用我自己
的
Model Array替换了Model data Array及其长度。但是当上传到微控制器上时,模型
不
工作
,并且在串行监视器上显示调用失败。在下面,我发布了串行监视器
的
输出。有人能给我解释一下为什么会发生这种事吗?我
浏览 12
提问于2021-04-14
得票数 0
1
回答
Tensorflow对象检测,Android,ssd mobilevet v2,相同结构不同
的
tflite文件,但几乎0检测
、
、
、
、
github代码使用基于ssd
mobilenet
v1
的
tflite。所以我做了基于ssd
mobilenet
v2
的
定制模型。我遵循这个链接来建立我自己
的
TFLITE模型。第一张图片是关于SSD
MOBILENET
V1
结构
的
。第二张图片是关于我自己
的
基于SSD
MOBILENET
V2
的
自定义模型。 我认为两位模特
的
结构是一样
的
浏览 10
提问于2022-05-26
得票数 1
2
回答
为什么MobileNetV2只在移动设备上比MobileNetV1更快?
、
、
我正在研究谷歌全新
的
MobileNetV2架构。例如,
Mobilenet
V2在移动设备上比
Mobilenet
V1
快,但在桌面GPU.所以我
的
问题是 这怎么可能?我真的很想知道为什么。
浏览 0
提问于2018-05-17
得票数 4
回答已采纳
2
回答
不支持
的
TensorFlow op:去
量化
、
、
使用Tensorflow 1.6.0toco --input_format=TENSORFLOW_GRAPHDEF -r_mobil enet/tf_files/retrained_graph.pb --output_format=TFLITE --output_file=/home/sudheer_sure/r_
mobilenet
/tf_files/
mo
浏览 3
提问于2018-05-03
得票数 0
1
回答
用tfLite转换珊瑚冻结图
、
因此,我认为问题在于所需采取
的
必要措施。tflite_convert \ --output_format=TFLITE \ --output_file=
mobilenet
_v2
浏览 2
提问于2019-03-24
得票数 1
回答已采纳
2
回答
如何在tensorflow/示例中转换像
mobilenet
_v1_1.0_224_quant.tflite这样
的
模型?
我正在尝试int8
量化
我
的
模型在TensorFlow Lite上。转换本身使用tensorflow 1.15.3,但转换模型在麒麟990上运行得非常慢。(使用tensorflow 2.3.0
的
转换没有
工作
。) tensorflow/示例中
的
mobilenet
_v1_1.0_224_quant.tflite在Kirin 990上运行得很快。我
的
模型是int8(tf.lite.OpsSet.TFLITE_BUILTINS_INT8)
量化
,而<em
浏览 9
提问于2020-09-02
得票数 2
2
回答
Tensorboard不显示自定义对象检测
的
精度图
、
、
、
、
我一直在使用Tensorflow对象检测API (网络: SSD
Mobilenet
V1
)
训练
一个自定义对象检测器。Tensorboard
的
屏幕截图显示了网络
的
准确性,然而,除了准确性之外,我还有一堆指标正在显示。使用tensorboard显示精度需要采取什么具体步骤?我使用
的
是更新
后
的
model_main.py和下面的python命令; --pipeline_config_path=traini
浏览 1
提问于2019-02-11
得票数 2
1
回答
tensorflow 2.2.0中
的
量化
感知
训练
产生更高
的
推理时间
、
、
、
、
我
的
工作
是
量化
在传输学习中使用MobilenetV2
的
个人数据集。我尝试过两种方法: (一)仅
训练
后
量化
:它
工作
良好,并正在产生0.04s
的
平均时间来推断在224,224维60图像。(二.)
量化
感知
训练
+
训练
后
量化
:与单纯
的
训练
后
量化
相比,它产生了更高
的
精度
浏览 5
提问于2020-09-09
得票数 1
1
回答
从同一检查点提取
的
重新
训练
的
Tflite/Pb模型提供了不同
的
结果
、
、
、
在我使用我自己
的
图像数据集使用object_detection\model_main.py脚本重新
训练
了预先
训练
好
的
ssd移动网络
v1
模型
后
,我导出了两个.pb冻结图(使用export_inference_graph.py\object_detection\export_tflite_ssd_graph.py --pipeline_config_path ssd_
mobilenet
_v1=128 --std_de
浏览 21
提问于2019-03-17
得票数 0
1
回答
用8位
量化
将Keras
MobileNet
模型转换为TFLite模型
、
、
、
我用Keras来完成
MobileNet
v1
的
制作。现在我有了model.h5,我需要将它转换为TensorFlow Lite,以便在安卓应用程序中使用它。我可以在没有
量化
的
情况下转换它,但是我需要更多
的
性能,所以我需要进行
量化
。算子
的
输入,缺乏
量化
所必需
的
最小/最大数据。\n nAborted(弃核)\n“ 如果我使用default_ranges_min和default_ranges_max (称为
浏览 0
提问于2018-11-27
得票数 4
回答已采纳
1
回答
AttributeError:用于Tensorflow对象检测API
的
模块“tensorflow._api.v1.compat”没有属性“v2”
、
、
、
我正在开发Python上
的
Tensorflow对象检测API。我正在
训练
一个自定义
的
对象检测算法,使用
的
预
训练
模型是ssd_
mobilenet
_v1_pets.config,当我试图从模型/对象_检测
的
遗留文件夹运行train.py时,我得到了这个特定
的
错误 Tracebackpython train.py --logtostderr --train_dir=Users/Captain/Desktop/ANPR
浏览 3
提问于2020-02-19
得票数 2
回答已采纳
1
回答
我可以在Keras序列模型中添加Tensorflow伪
量化
吗?
、
我已经搜索了一段时间,但似乎Keras只有经过
训练
后
才具有
量化
特性。我希望在我
的
Keras序列模型中添加Tensorflow伪
量化
。根据Tensorflow
的
doc,我需要这两个函数来做假
量化
: tf.contrib.quantize.create_training_graph()和tf.contrib.quantize.create_eval_graph我
的
问题是,是否有人在Keras模型中添加了这两个函数?如果是,应在哪里增加这两个功能?例如,在m
浏览 2
提问于2018-09-17
得票数 2
回答已采纳
1
回答
tensorflow模型和转换
后
的
tflite之间
的
精度下降
、
、
、
我遇到了一个问题,我将keras模型转换为tensorflow lite格式,但是一旦我这样做了,转换
后
的
模型
的
精度就会显着下降。该模型是一个相当简单
的
自然语言处理模型。在转换之前,模型
的
准确率约为96%,但一旦转换为tensorflow lite格式(没有任何优化),准确率就会下降到20%左右。这是一个可笑
的
性能下降,所以我想知道这是可能发生
的
事情,还是我做错了什么?我在运行debian
的
beaglebone SBC上运行tflite模型,并在pyt
浏览 149
提问于2021-01-15
得票数 3
2
回答
SSD-Mobilenetv2 2 300x300 - Tensorflow异议检测API
、
、
、
、
我已经微调了一个2,使用tensorflow反对检测API构建
的
列车配置固定大小为300x300,并以TF Saved_Model格式保存。问题: 在推理过程中,它如何能够接受任何形状
的
输入图像(而不仅仅是300x300),而不需要进行任何预处理,首先将它们调整到300x300,然后将它们传递给模型?(如果是,它是否也规范了它们,因为在进行卷积操作之前)(我是saved_model格式
的
新手,但我认为这不是因为saved_model,但是我认为saved_model包括需要固定输入大小
的
FC层)或者体系结构是否使用b&
浏览 7
提问于2021-09-17
得票数 1
1
回答
为什么来自
量化
感知
训练
模型
的
TFLite模型与具有相同权重
的
正常模型不同?
、
、
、
我正在
训练
一个Keras模型,我想在一个
量化
的
8位环境(微控制器)中使用TFLite来部署它。为了提高
量化
性能,我进行
量化
感知
训练
。然后,我使用我
的
验证集作为一个有代表性
的
数据集创建
量化
的
TFLite模型。性能使用验证集进行评估,并在此图像中加以说明: 如果不是简单地从经过QA
训练
的
模型(图中红色)生成TFLite模型(图中
的
青色),而是将经过QA
训练<
浏览 9
提问于2021-03-02
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
轻量化神经网络综述
AI神经网络,迁移学习的优势
Paddle Fluid v1.2 Release Note——PaddlePaddle深度学习框架再次升级
从MobileNet V1到MobileNet V2
从LeNet到SENet——卷积神经网络回顾
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券