腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1192)
视频
沙龙
1
回答
量化
感知
训练
比
后
量化
差
、
我想使用
量化
感知
训练
将我的模型
量化
为int8。不幸的是,我不能简单地
量化
整个模型,因为我的第一层是批归一化(在InputLayer之后),所以我需要为该层使用一个自定义的quantizationConfig。我的问题是,我的准确率下降了大约4%,而使用后
量化
只下降了2%。下面的代码有什么问题吗?如果没有,你知道为什么QAT在这种情况下会变得更糟吗?
浏览 66
提问于2021-11-02
得票数 0
1
回答
tensorflow 2.2.0中的
量化
感知
训练
产生更高的推理时间
、
、
、
、
我的工作是
量化
在传输学习中使用MobilenetV2的个人数据集。我尝试过两种方法: (一)仅
训练
后
量化
:它工作良好,并正在产生0.04s的平均时间来推断在224,224维60图像。(二.)
量化
感知
训练
+
训练
后
量化
:与单纯的
训练
后
量化
相比,它产生了更高的精度,但对于相同的60幅图像却产生了0.55s的更高的推理时间。classes = interpreter.ge
浏览 5
提问于2020-09-09
得票数 1
1
回答
为什么来自
量化
感知
训练
模型的TFLite模型与具有相同权重的正常模型不同?
、
、
、
我正在
训练
一个Keras模型,我想在一个
量化
的8位环境(微控制器)中使用TFLite来部署它。为了提高
量化
性能,我进行
量化
感知
训练
。然后,我使用我的验证集作为一个有代表性的数据集创建
量化
的TFLite模型。性能使用验证集进行评估,并在此图像中加以说明: 如果不是简单地从经过QA
训练
的模型(图中红色)生成TFLite模型(图中的青色),而是将经过QA
训练
的模型中的权重复制到原始模型中,然后生成TFLite我理解TFLite模型与QA培
浏览 9
提问于2021-03-02
得票数 0
回答已采纳
1
回答
TensorFlow QAT如何获得
量化
的权重
、
、
、
如何在TensorFlow的
量化
感知
训练
后
得到
量化
权值或
量化
感知
权值。我想在应用程序的NumPy上使用整数
量化
的权重。到目前为止,我的用法如下,它给出了float32的值。
浏览 17
提问于2020-10-23
得票数 0
1
回答
在
训练
过程中,Tensorflow
量化
感知
训练
是否会导致实际的加速?
、
、
、
、
我们正在考虑将
量化
感知
训练
用于一个研究项目,以确定
训练
期间
量化
对收敛速度和运行时间的影响。尽管我们还不完全相信这是正确的工具。请您澄清以下几点: 1)如果一个层在
量化
感知
训练
期间被
量化
,这意味着输入和权重被
量化
,包括激活函数在内的所有操作都被
量化
,然后在返回之前,输出被反
量化
到与下一层兼容的精度。这种理解正确吗?3)原则上,
量化
感知
训练<
浏览 22
提问于2020-06-19
得票数 0
回答已采纳
2
回答
TF2目标检测应用编程接口中的
量化
模型
、
、
、
我想将我的代码迁移到TensorFlow 2上,但我在中看不到
量化
模型。 是否有可能在TF2中为此目的微调模型,并使用
量化
感知
训练
或
训练
后
量化
之类的技术?我没有看到任何相关的教程或问题。我还看到了一些关于TF2中TFLite转换器
量化
问题的报道,所以我甚至不确定在TF2中是否可以做到这一点。
浏览 0
提问于2020-07-23
得票数 3
2
回答
即使在
训练
后
量化
之后也“模型未
量化
”
、
、
因此,我将其转换为tensorflow-lite,并应用混合
训练
后
量化
(据我所知,这是唯一的方法,因为我无法访问
训练
数据)。
浏览 3
提问于2019-08-11
得票数 2
2
回答
如何在tensorflow/示例中转换像mobilenet_v1_1.0_224_quant.tflite这样的模型?
我正在尝试int8
量化
我的模型在TensorFlow Lite上。转换本身使用tensorflow 1.15.3,但转换模型在麒麟990上运行得非常慢。我的模型是int8(tf.lite.OpsSet.TFLITE_BUILTINS_INT8)
量化
,而mobilenet_v1_1.0_224_quant.tflite则是uint8
量化
。Conv2D的“过滤器”属性在mobilenet_v1_1.0_224_quant.tflite中有一个“
量化
”属性,而在我的转换模型中,Conv2D的“过滤器”属性没有“
量化</e
浏览 9
提问于2020-09-02
得票数 2
1
回答
TFLiteConverter参数在TensorFlow 1.x上的优化
、
、
、
、
我一直在学习如何在TensorFlow 2.x上使用TFLiteConverter进行
量化
,但是我正在TensorFlow 1.13上实现一个项目,我想知道如何在这个版本上做同样的事情。那么整数
量化
和
量化
感知
训练
又如何实现呢?
浏览 2
提问于2020-04-02
得票数 0
回答已采纳
1
回答
重新
量化
已经
量化
的模型
、
是否有可能重新
量化
已经
量化
的模型? 我有一些模型,我已经
训练
与
量化
感知
训练
(QAT)与全整数
量化
。但是,我没有为GPU代表团提供这些模式。是否有一种方法,使我已经拥有的模型与Float16
量化
,以便能够运行他们与GPU代表。
浏览 2
提问于2020-08-20
得票数 0
2
回答
没有使用
量化
模型来改善喷炬的性能
、
、
、
、
我已经
训练
了一个带浮点数据类型的移相器模型。我希望通过将该模型转换为
量化
模型来改进我的推理时间。我使用torch.quantization.convert api将模型的权重转换为uint8数据类型。(save_name+'.mat', {'output': arr}) print(f'Elapsed time = {t1-t0}') 对于模型网和
量化
模型
浏览 4
提问于2020-06-02
得票数 3
1
回答
我可以在Keras序列模型中添加Tensorflow伪
量化
吗?
、
我已经搜索了一段时间,但似乎Keras只有经过
训练
后
才具有
量化
特性。我希望在我的Keras序列模型中添加Tensorflow伪
量化
。根据Tensorflow的doc,我需要这两个函数来做假
量化
: tf.contrib.quantize.create_training_graph()和tf.contrib.quantize.create_eval_graph
浏览 2
提问于2018-09-17
得票数 2
回答已采纳
2
回答
我可以从一个
量化
的Tensoflow模型中期待什么结果?
、
、
numClasses, activation="softmax")(modelSensor) model = Model(inputs=inputSensor, outputs=modelSensor) 在
训练
模型之后0.0,1.0,0.0结果[0.00087439 0.996424 0.00270158] 测试左侧输入1.0,0.0,0.0结果[0.9948014 0.00256803 0.00263061] 然后我
量化
模型
浏览 17
提问于2019-08-31
得票数 1
1
回答
将keras模型转换为
量化
的tflite损失精度
、
、
、
我正在尝试将keras模型转换为tflite
量化
模型,这样我就可以在coral TPU上运行我的模型,但我的keras模型和tflite模型的输出明显不同。红点是
量化
的tflite模型输出,蓝点是原始keras模型输出。quant = Trueimport tensorflow as tfimportX_train是我的
训练
数据,我将通过除以255.将输入图像值从0缩放到1,因此我在re
浏览 4
提问于2020-05-28
得票数 1
1
回答
量化
后
TF-lite精度不正确的原因
、
、
、
我正在尝试TF1.12的TF-lite转换器.并发现在
量化
后
,the的精度不正确.以convolution_test_lite.py为例,如果使用以下命令转换为f32,则在使用conv_net_f32.
浏览 1
提问于2020-05-26
得票数 4
回答已采纳
1
回答
TensorFlow模型在
训练
后
量化
后
仍然是浮点。
、
在应用
训练
后
量化
后
,我定制的CNN模型被缩小到原来大小的1/4 (从56.1MB减少到14 my )。这使我怀疑转换
后
的tflite模型仍然是浮点数格式。这是预期的行为吗?我怎样才能像在中一样,从TensorFlow官方存储库中获得一个
量化
的模型,以获取8点精度的输入图像?在示例代码中,用于输入ByteBuffer ()的tflite.run()对于
量化
模型来说具有8位精度。 但我也从google文档中读到:“根据推断,权重从8位精度转换为浮点,并使用浮点内核
浏览 1
提问于2018-10-17
得票数 2
回答已采纳
1
回答
create_training_graph()在用TF-lite将MobileFacenet转换为
量化
感知
模型时失败
、
、
、
我正试图根据 ()
量化
,我想我遇到了和一样的问题(train_nets.py In.187:在train_op = train(...)之前或在train() utils/common.py In.38中,在梯度之前) 它没有在图形中添加
量化
感知
操作来收集动态范围max\min。我假设我应该看到一些额外的节点在张力板,但我没有,因此,我认为我没有成功地添加
量化
感知
操作的
浏览 0
提问于2020-07-27
得票数 0
回答已采纳
1
回答
如何用tensorflow 1.15进行
量化
感知
训练
?
我正在使用tensorflow 1.15,因为依赖于多个其他模块,并且难以进行
量化
感知
培训。在使用tensorflow 1.15进行
训练
时,有任何方法可以进行
量化
吗?
浏览 4
提问于2022-02-01
得票数 0
1
回答
在使用tf.lite.Optimize.DEFAULT
后
,并不是DNN模型中的所有值都是
量化
的
、
我正在尝试将DNN模型的.pb格式更改为.tflite,我还想
量化
所有的权重和偏差。当使用以下代码时,权重以8位为单位进行
量化
,但偏置仍然是浮点数。 我已经使用了tf-nightly的最新版本。
浏览 54
提问于2019-08-22
得票数 0
回答已采纳
1
回答
TensorFlow
量化
感知
训练
量化
节点附加参数的研究
、
目前,我正试图理解
量化
感知
的TensorFlow培训。据我所知,伪
量化
节点需要收集动态范围信息作为
量化
操作的校准。当我将同一模型与“普通”Keras模型和一次
量化
感知
模型进行比较时,后者具有更多的参数,这是有意义的,因为我们需要在
量化
感知
训练
中存储激活的最小值和最大值。,为什么每个层有5个额外的不可
训练
参数,它们到底用于什么?。 我很感激任何帮助我(和其他偶然发现这个问题的人)理解
量化
感知<
浏览 9
提问于2020-05-06
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
蕉下发《轻量化户外行业白皮书》:轻量化户外人群规模达5亿 90后成主力军
量化新范式:智源提出首个1bit自然语言理解预训练模型BiPFT
轻量化发行版 LegacyOS 历经九年后发布 2023 版本|Linux 中国
轻量化成趋势 66g的鼠标习惯后没有想象中那么不爽
如何更有效的将深度学习算法部署在计算资源有限的设备?
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券