腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(635)
视频
沙龙
1
回答
如何将
PyTorch
图
转
换为
ONNX
,
然后
从
OpenCV
进行
推理
?
python
、
opencv
、
pytorch
、
onnx
我尝试通过torch.
onnx
.export函数将
PyTorch
图形转
换为
ONNX
,
然后
使用
OpenCV
函数blobFromImage、setInput和forward来推断转换后的图形。' + str(GRAPH_NAME)) main() 这是我迄今为止在脚本中最好的尝试,将保存的图形
从
PyTorch
转
换为
浏览 75
提问于2021-01-06
得票数 0
回答已采纳
1
回答
如何得到
pytorch
模型的
推理
计算
图
?
pytorch
、
onnx
我想写一个框架来执行给定神经网络的
推理
。网络是如此复杂,所以为了确保我的实现是正确的,我需要知道如何在设备上
进行
精确的
推理
过程。我试图使用torchviz来可视化网络,但我得到的似乎是反向传播计算
图
,这真的很难理解。 我只想得到这样的结果 我怎么能拿到这个?谢谢!
浏览 7
提问于2022-07-28
得票数 0
回答已采纳
1
回答
Seq2seq移液器推断慢
python
、
deep-learning
、
recurrent-neural-network
、
pytorch
、
sequence-to-sequence
我尝试了在这里可用的seq2seq
pytorch
实现,。在对评估(evaluate.py)代码
进行
分析之后,需要较长时间的代码段是方法。(input_lines_trg, next_preds.unsqueeze(1)), ) 在GPU上对模型
进行
训练,并在CPU模式下加载模型
进行
推理
。是否期望在火把上
进行
缓慢的预测? 如有任何解决办法和加快速度的建议,我将不胜感激。谢谢。
浏览 3
提问于2017-08-31
得票数 0
3
回答
如何将
.
onnx
转
换为
tflite?
tensorflow
、
keras
、
deep-learning
、
pytorch
、
onnx
我已经通过以下方式将我的模型导出到
ONNX
:torch_out = torch.
onnx
.export_params=True) # store the trained parameter weights inside the model file 现在,我试图将模型转
换为
Tensorflow Lite文件,这样我就可以在Android上
进行
推理
了。不幸的是,
PyTorch
/Caffe2 2对Android的支持相当缺乏或太复杂
浏览 3
提问于2018-11-07
得票数 20
1
回答
Tensorflow-
Onnx
-Tensorrt的准确度下降
tensorflow
、
onnx
、
tensorrt
Tensorflow模型被转
换为
ONNX
并转
换为
TensorRT。TensorRT引擎以16位精度运行.在TensorRT中,准确率下降到75%。即使使用kTF32,准确率仍为75%。我该
从
哪里看这个精度下降的地方?唯一的区别是我在TensorRT中
进行
批处理
推理
,而不是在Tensorflow中。 对于Tensorflow和TensorRT,使用
OpenCV
读取图像。
从
Tensorflow到
ONNX
的转换精度会下降吗?
浏览 6
提问于2020-09-11
得票数 0
回答已采纳
4
回答
如何在
OpenCV
或NumPy中复制
PyTorch
规范化?
python
、
numpy
、
opencv
、
pytorch
快速背景:我正在做一个项目,我正在
进行
PyTorch
培训,但由于部署到一个没有存储空间来安装
PyTorch
的嵌入式设备上,我将不得不在
OpenCV
中
进行
推断。在对
PyTorch
进行
训练并保存
PyTorch
图
之后,我会将其转
换为
ONNX
图
。为了在
OpenCV
中
进行
推断,我将图像作为
OpenCV
图像(即NumPy数组)打开,
浏览 3
提问于2021-01-08
得票数 2
2
回答
如何优化
推理
脚本,使分类器得到更快的预测?
python
、
image-processing
、
neural-network
、
classification
、
pytorch
我已经编写了下面的预测代码,它是
从
经过训练的分类器模型中预测出来的。现在的预测时间大约是40,000,我想尽量减少。 我是否可以对我的
推理
脚本做任何优化,或者我应该寻找在训练脚本方面的发展?
浏览 0
提问于2018-12-28
得票数 2
2
回答
使用MVN操作编译InferenceEngine Openvino失败
machine-translation
、
openvino
我正在将MBART模型
从
HuggingFace转换器转
换为
OpenVino IF格式,并且我已经“成功地”将原始的
pytorch
模型
图
分解为3个独立的
ONNX
模型。
然后
,我使用mo.py将
onnx
模型转
换为
IF格式模型,以便在"MYRIAD“Neural Compute Stick 2中使用openvino中的
推理
引擎。它本质上是两个编码器和一个解码器。我正在尝试测试第一个编码器模型,看看简单的
推理
引擎加载
浏览 37
提问于2021-06-28
得票数 0
回答已采纳
2
回答
如何通过
pytorch
使英特尔GPU可用于处理?
deep-learning
、
pytorch
、
gpu
有谁知道如何设置深度学习,特别是
Pytorch
?我已经看到,如果你有Nvidia显卡,我可以安装cuda,但当你有英特尔图形处理器时怎么办?
浏览 1
提问于2020-10-29
得票数 4
1
回答
T5类模型的加速
推理
python
、
deep-learning
、
pytorch
、
huggingface-transformers
我目前正在生产中使用一个名为T0pp ()的模型,并希望加快
推理
速度。attention_mask=attention_mask)我想知道你会尝试哪种方法来加速
推理
我所看到的加速
推理
的主要替代方法是使用下面的
Pytorch
模型: 是否有人有使用这些工具的经验,并知道哪一个是最好的所有这些对我来说都是
浏览 25
提问于2022-02-21
得票数 0
回答已采纳
2
回答
Pytorch
中的易失性变量是什么
pytorch
Pytorch
中变量的易失性属性是什么?下面是在
PyTorch
中定义变量的示例代码。 datatensor = Variable(data, volatile=True)
浏览 0
提问于2018-04-15
得票数 24
回答已采纳
2
回答
Pytorch
:将2D-CNN模型转
换为
tflite
pytorch
、
onnx
、
tensorflow-lite
为了在移动设备上运行,我想把一个模型(如Mobilenet V2)
从
Py手电筒转换成tflite。我发现的是一种使用
ONNX
将模型转
换为
中间状态的方法。有一个讨论,但在我的例子中,转换工作没有抱怨,直到一个“冻结的tensorflow图形模型”,在试图将模型进一步转
换为
tflite之后,它抱怨频道顺序是错误的.
然后
使用 ("input.1“和"473")查找输入和输出张量的名称。最后,我将我通常的tf-
图
应用于bash的tf-lite转换
浏览 18
提问于2020-05-08
得票数 1
2
回答
将yolov5s.pt转
换为
openvino IR格式成功,预测材料失败
openvino
、
yolov5
这是
从
好奇开始的……我从公共google drive下载了预先训练好的yolov5s.pt,并使用yolov5的model/export.py将其转
换为
输入形状为1,3640,640的yolov5s.
onnx
然后
,我使用openvino的部署工具/mo.py将yolov5s.
onnx
转
换为
openvino
推理
引擎文件(.xml+.bin)。转换成功,没有错误。最后,使用openvino的demo程序对这些文件
进行
了预测,并成功地返回
浏览 5
提问于2021-03-12
得票数 0
1
回答
使用MLMultiArray作为CoreML模型的输出
ios
、
pytorch
、
yolo
、
coreml
、
onnx-coreml
我使用
PyTorch
训练了一个YOLOv3-SPP模型。
然后
,我将模型保存为
onnx
格式,
然后
使用
onnx
-coreml将我的
onnx
模型转
换为
CoreML。下面是我的输出:我是机器学习的新手,当尝试使用这个模型时,我不知道
从
哪里开始。我不知道每个MultiArray包含什么信息,也不知道如何访问它。如果有人知道任何Github项目,我可以简单地将此模型放入其中
进行
测试,这也是可行的。
浏览 4
提问于2020-03-14
得票数 0
1
回答
TRT与TF-TRT
tensorflow
、
yolo
、
nvidia-jetson
、
tensorrt
、
hourglass
我需要转换一些模型,以便能够在jetson设备上部署它们。我试过TensorRT for Yolov3,在coco 80上受过训练,但我没有成功地推断出来,所以我决定做TF-TRT。它工作在我的笔记本电脑,FPS是增加,但大小和GPU内存使用没有改变。型号300 it,体积大。前后TRT模型仍然使用16 GB的GPU内存.最重要的是FPS很难在TRT之后跳跃.我在TRT之前得到了3 FPS,但在那之后,我得到了4,6,7,8,9 FPS,但是FPS的变化并不顺利,例如,
浏览 10
提问于2021-10-21
得票数 0
2
回答
如何对TFlite模型
进行
微调
tensorflow
、
deep-learning
、
tensorflow2.0
、
tensorflow-lite
、
transfer-learning
我想根据自己的数据对模型
进行
微调。但是,该模型是通过tflite格式分发的。有没有办法
从
tflite文件中提取模型架构和参数?
浏览 41
提问于2020-10-15
得票数 0
1
回答
微软是否放弃了CNTK?
cntk
我想知道CNTK是否死了?GitHub上日期为03/31/2019的发布说明:“今天的2.7版将是CNTK的最后主要发行版。”我花了几个月的时间用CNTK开发软件,现在看来这是浪费时间和金钱。我已经搜索了许多网站的答案,但仍然没有答案。stackoverflow是微软推荐的网站之一。
浏览 5
提问于2019-04-24
得票数 18
2
回答
基于TensorRT的Jetson优化tensorflow模型
tensorflow
、
tensorrt
、
nvidia-jetson
我将我的tensorflow模型转
换为
具有tensorRT精度模式的FP16。而且速度比我预期的要慢。在优化之前,我使用.pb冻结
图
进行
推理
。经过tensorRT运算后,我得到了14 have。但没有管道对模型
进行
优化。我怎样才能得到类似的结果?我正在寻找解决方案,使我的模型(unet-移动电话-512x512)的速度接近30 for。
浏览 10
提问于2021-02-07
得票数 6
回答已采纳
2
回答
PyTorch
到
ONNX
导出,不支持ATen运算符,
ONNX
运行时挂起
pytorch
、
onnx
、
caffe2
来自原木:18: CUDA: False26: onnxruntime: 1.10.0看起来,模型中唯一没有转
换为
ONNX
readable representation of the graph print(
onnx
.he
浏览 66
提问于2022-02-22
得票数 1
回答已采纳
1
回答
在Java中使用来自TensorFlow的自定义操作的
ONNX
java
、
tensorflow
、
onnx
、
onnxruntime
、
tf2onnx
为了利用Java中的机器学习,我尝试在TensorFlow中训练一个模型,将它保存为
ONNX
文件,
然后
使用该文件在Java中
进行
推理
。文件,我将模型保存为protobuf,
然后
将其转
换为
ONNX
:python -m tf2
onnx
.convert --saved-modelsaved_model --output saved_model.
onnx
浏览 27
提问于2022-02-03
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
跨越重重“障碍”,我从 PyTorch 转换为了 TensorFlow Lite
如何将PyTorch Lightning模型部署到生产中
融合 Caffe2、ONNX 的新版 PyTorch 发布在即,能否赶超 TensorFlow?
作业帮基于 WeNet + ONNX 的端到端语音识别方案
热门:Facebook AI大师推出全新的Pytorch 1.0框架
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券