腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
为什么
TensorFlow
Lite
模型
在动态范围量化时在延迟上表现很好,而在全整数量化时表现很差?
、
、
我目前正在测试与
TensorFlow
Lite转换的CNN
推理
的延迟时间。我正在测试
两个
具有相同架构的CNN(我正在用Windows操作系统在我的笔记本上测试它们): 第一个
模型
:
使用
TensorFlow
优化的TFLite
模型
及其权重量化(
使用
Python
进行
转换,用
tensorflow
.lite.Optimize.DEFAULT第二个
模型
:
使用
TensorFlow</
浏览 2
提问于2021-02-04
得票数 0
1
回答
TensorRT/TFlite示例实现
、
、
、
有了经过训练的“.h5”Keras
模型
文件,我正在尝试优化
推理
时间: (打开
浏览 1
提问于2019-07-06
得票数 3
2
回答
是否可以
使用
C++训练在
tensorflow
和pytorch中开发的ONNX
模型
?
、
、
、
、
我想知道是否有可能
使用
tensorflow
和pytorch
模型
转换为onnx
模型
来
使用
C++ Api训练它们,就像在中
使用
tensorflow
模型
一样。我只是找到了一些
使用
onnx
进行
推理
的例子。其想法是能够在python中
使用
tensorflow
和pytorch创建原型,转换为onnx
模型
,并在C++中拥有统一的API来
进行
<
浏览 4
提问于2021-11-05
得票数 1
1
回答
AWS与Keras中的不同推断结果-Windows
、
我用
Tensorflow
2.5 (来自
tensorflow
import keras)在Keras中训练了我的
模型
,并将其转换为
tensorflow
模型
,以便
使用
亚马逊网络服务SageMaker
进行
推理
推理
结果大不相同。我检查了这些库,它们都是相同的版本,特征提取也是相同的。我还能复习些什么?非常感谢。
浏览 0
提问于2021-10-26
得票数 0
1
回答
如何在
Tensorflow
2.x对象检测API中导出冻结
推理
图?
、
在
使用
Tensorflow
2.x对象检测API培训自定义对象检测
模型
时,我一直在学习以下教程。以下是我
使用
的
两个
主要链接。在我尝试导出经过训练的
推理
图之前,一切似乎都很顺利。基本上,在
TensorFlow
1.x中,有一个脚本,用于将经过训练的
模型
检查点导出到单个冻结
推理
图。在
TensorFlow
2.x中,这个脚本不再工作,而是
使用
输出SavedModel目录和其他内容,而不是冻结的<em
浏览 4
提问于2021-11-17
得票数 3
1
回答
使用
两个
Tensorflow
模型
进行
推理
、
我有
推理
应用程序。应用程序
使用
了
两个
推理
模型
。 这
两个
模型
恢复为
两个
不同的图形,并在
两个
不同的会话中运行。 检测
推理
产生物体的位置,第二个
推理
识别作物图像中的独立物体。 在第二次推断时发生错误。错误是 2019-06-17 22:08:34.454728: F
tensorflow
/core/framework/tensor_shape.cc: 44]
浏览 46
提问于2019-06-17
得票数 1
回答已采纳
2
回答
兼容的Keras和
Tensorflow
版本
、
、
我有一个独立的训练和
推理
系统。
推理
系统有
tensorflow
版本1.8 (是的,我知道,它是旧的,但我没有升级系统的发言权...)。我正在Keras中构建我的
模型
,然后尝试将其转换为pb
模型
进行
推理
。我很难找到兼容的Keras版本可以与
tensorflow
1.8一起工作。我想知道
tensorflow
1.8的Keras版本是什么?谢谢!
浏览 1
提问于2019-10-03
得票数 2
1
回答
Tensorflow
-Onnx-Tensorrt的准确度下降
、
、
我有一个
tensorflow
训练
模型
,并在
tensorflow
测试,精度达到95%。我该从哪里看这个精度下降的地方?唯一的区别是我在TensorRT中
进行
批处理
推理
,而不是在
Tensorflow
中。对于
Tensorflow
和TensorRT,
使
浏览 6
提问于2020-09-11
得票数 0
回答已采纳
1
回答
如何在服务器的
推理
之间保持
TensorFlow
的开放性
、
、
、
、
我们试图在服务器上
使用
TensorFlow
(TF)对图像
进行
推理
。android应用程序将jpeg图像发送到我的机器,php api执行我的android
推理
(python)脚本并返回分数,大约需要6s,但是我们意识到加载TF需要很长时间,但是
进行
推理
需要很短的时间,例如,一个请求占用10%的资源,另一个10%,因此它只有20%的时间同时
进行
两个
推理
,以及
两个
TF
模型
。TF取第一
浏览 1
提问于2018-07-28
得票数 0
1
回答
tflite量化
推理
非常慢
、
、
我正在尝试将经过训练的
模型
从检查点文件转换为tflite。我正在
使用
tf.lite.LiteConverter。在合理的
推理
速度下,浮点数转换
进行
得很好。但是INT8转换的
推理
速度很慢。我试图通过输入一个非常小的网络来
进行
调试。我发现INT8
模型
的
推理
速度通常比浮点
模型
慢。在
TensorFlow
tflite文件中,我发现了一些名为ReadVariableOp的张量,它在
TensorFlow
的官方m
浏览 91
提问于2019-10-12
得票数 8
1
回答
我们是否可以在带有TensorflowLite的Raspberry Pi3上运行多个深度学习
模型
进行
推理
、
、
、
我有多个深度学习
模型
(比如2个),这些
模型
的输出是另一个深度学习
模型
的输入。我想在覆盆子Pi3上运行它来
进行
推理
。请建议解决方案。
浏览 0
提问于2019-08-27
得票数 0
1
回答
如何可视化
TensorFlow
Lite
模型
的特征图?
、
、
、
、
我
使用
Keract来可视化
TensorFlow
/Keras
模型
的特征映射。谢谢你的帮助
浏览 19
提问于2021-12-20
得票数 0
1
回答
在
tensorflow
中训练时Keras BatchNormalization种群参数的更新
、
、
、
我在Ubuntu16.04中
使用
了带有
Tensorflow
1.3.0的Keras2.0.8和cuDNN 6。我在我的
模型
中
使用
两个
BatchNormalization层( keras层),并
使用
tensorflow
管道
进行
培训。我现在面临
两个
问题- 即使在将K.learning_phase设置为True之后,层的总体参数(均值和方差)也是在训练时没有被更新的。因此,
推理
完全失败了。其次,在
使用
浏览 1
提问于2017-10-06
得票数 2
1
回答
安卓的
TensorFlow
支持和安卓的
TensorFlow
支持有什么区别?
、
、
我在Google codelabs 中看到了一个示例implementation 'org.
tensorflow
:
tensorflow
-android:1.2.0-preview'我知道
TensorFlow
Lite帮助开发人员在移动设备中
使用
该
模型
浏览 1
提问于2018-11-20
得票数 0
回答已采纳
2
回答
如何与
tensorflow
保存的
模型
预测器并行
进行
推理
?
、
、
、
、
Tensorflow
版本: 1.14我们当前的设置
使用
python多处理来并行地
进行
推理
。(推断是在CPU上完成的。)这种方法在每次
进行
预测时都会重新加载
模型
权重。
使用
提到的方法,我们
浏览 0
提问于2020-06-18
得票数 2
2
回答
在不安装
Tensorflow
的情况下提供
Tensorflow
模型
、
我有一个经过训练的
模型
,我想在python应用程序中
使用
它,但是在不安装
TensorFlow
或创建gRPC服务的情况下,我看不到任何部署到生产环境的示例。这是完全可能的吗?
浏览 14
提问于2016-09-15
得票数 4
回答已采纳
1
回答
TensorFlow
中多个网络的并发执行
、
、
、
我试图找出在
TensorFlow
中(在单机执行环境中)运行多个经过预先训练的
模型
以
进行
推理
的最佳方法。我读过几个关于这方面的问题,但我还是有点困惑。例如,让我们假设在
两个
不同的进程/线程中运行2个深网络。据我所知,我也可以这样做:
使用
TensorFlow
服务
浏览 5
提问于2017-11-27
得票数 2
2
回答
在ML引擎预测上得到误差,但局部预测工作良好。
、
我正在本地机器上运行
TensorFlow
1.3 (通过PiP安装在MacOS上),并
使用
"ssd_mobilenet_v1_coco“检查点创建了一个
模型
。我成功地在本地和ML引擎(运行时1.2)上
进行
了培训,并成功地将我的savedModel部署到了ML引擎上。 本地预测(以下代码)运行良好,我得到了
模型
结果。inputs": [[[242, 240, 239], [242, 240, 239], [242, 240, 239], [242, 240, 239], [242, 2
浏览 5
提问于2017-08-30
得票数 2
回答已采纳
1
回答
当
使用
原始
模型
作为针对新数据
进行
培训的基础
模型
时,如何保留原始
模型
的学习内容?
、
我正在
使用
tensorflow
对象检测。 我可以
使用
来自
tensorflow
模型
动物园的
模型
来执行
推理
,它可以检测到几个现实世界的对象。然而,当我在新的类上训练相同的
模型
时,它只能识别新的类。当
使用
原始
模型
作为针对新数据
进行
培训的基础
模型
时,如何保留原始
模型
的学习内容?
浏览 0
提问于2022-08-05
得票数 0
1
回答
正在TensorRT上添加多个推断(无效资源句柄错误)
、
、
、
、
我正在尝试
使用
Jetson Nano在管道中运行
两个
推论。第一个推论是
使用
MobileNet和TensorRT
进行
目标检测。我用于第一个推断的代码几乎是从AastaNV/TRT存储库复制而来的。第二个
推理
作业
使用
第一个
推理
的输出来运行进一步的分析。对于这个推断,我
使用
tensorflow
(不是TensorRT,但我假设它是在后端调用的?)
使用
自定义
模型
。此
模型
是从.pb
浏览 88
提问于2019-10-14
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PyTorch&TensorFlow跑分对决:哪个平台运行NLP模型推理更快
tensorflow模型导出与OpenCV DNN中使用
使用PaddleFluid和TensorFlow训练序列标注模型
使用Accelerate库在多GPU上进行LLM推理
使用TensorFlow Lite进行基于移动设备的对话建模
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券