腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
从
ONNX
运行
超
分辨率
模型
时
出错
python
、
onnx
、
onnxruntime
在测试super resolution model的
ONNX
模型
时
,我在
运行
this sample program
时
出错
。 我的
ONNX
版本是1.5.0,带有onnxruntime 1.4.0。ort_session = onnxruntime.InferenceSession('/home/itc/pytorch/sub_pixel_cnn_2016/model/super-resolution-1
浏览 747
提问于2020-10-09
得票数 1
回答已采纳
2
回答
当尝试
运行
带有卷积的
ONNX
模型
时
windows-machine-learning
我看到一个来自WinML
运行
时的异常‘参数是不正确的。’当在DirectX设备上
运行
单个卷积
ONNX
模型
时
。我的
模型
在默认和Cpu设备上
运行
良好,我能够
从
存储库在SqueezeNet.
onnx
设备上
运行
DirectX
模型
。我的
模型
与第一次SqueezeNet卷积一样使用相同的算子集id、卷积属性、权重和偏差。我还在我的
模型
上
运行
了
ONNX
浏览 0
提问于2018-10-24
得票数 2
回答已采纳
2
回答
如何将Yolov5
模型
转换为tensorflow.js
tensorflow
、
machine-learning
、
tensorflow.js
、
yolov5
是否可以将YOLOv5 PyTorch
模型
转换为Tensorflow.js
模型
? 我正在开发一个对象检测web应用程序。因此,我已经使用Yolov5训练了数据,但现在我正在寻找将该
模型
转换为Tf.js的正确方法。
浏览 5
提问于2021-10-08
得票数 2
3
回答
如何将.
onnx
转换为tflite?
tensorflow
、
keras
、
deep-learning
、
pytorch
、
onnx
我已经通过以下方式将我的
模型
导出到
ONNX
:torch_out = torch.
onnx
.我尝试通过以下方式导出到Tensorflow GraphDef proto:然后
运行
input_arrays=0 \--input_shapes=1,3,28,28 \ --out
浏览 3
提问于2018-11-07
得票数 20
2
回答
ONNX
模型
的分裂
python
、
tensorflow
、
deep-learning
、
neural-network
、
onnx
我试图拆分DNN
模型
,以便在edge上执行网络的一部分,在cloud__上执行其余的网络。因为它必须是跨平台的,并且与每个框架一起工作,所以我需要直接
从
ONNX
模型
开始。我知道如何
从
tensorflow/keras开始生成
ONNX
模型
,以及如何
运行
ONNX
模型
,但我意识到在
ONNX
文件上很难工作,比如可视化和修改它。是否有人能帮助我理解如何拆分和
ONNX
模型</
浏览 22
提问于2021-10-04
得票数 0
1
回答
RuntimeError:不支持: opset 9中index_put的
ONNX
导出。请尝试opset版本11。
pytorch
、
torch
、
onnx
我正在将我们的自定义Jetson
模型
转换为Trt,并在Jetson上
运行
它。在将pt转换为
ONNX
时
,我得到了一个错误,例如: RuntimeError: Unsupported:
ONNX
在opset 9中导出index_put。请尝试opset版本11。参考:我通过在函数opset_version=11 ()中添加
浏览 10
提问于2022-10-28
得票数 0
1
回答
将PyTorch转换为
ONNX
模型
会增加ALBert的文件大小
python
、
pytorch
、
onnx
、
quantization
、
onnxruntime
第1.2和2.2节中的输出显示: 我认为这是
模型
性能较差的原因,与香草ALBert相比,ALBert的两种量化ALBert方法的
浏览 35
提问于2022-01-20
得票数 0
回答已采纳
1
回答
在操作员级
从
深度学习框架导出
ONNX
模型
tensorflow
、
pytorch
、
onnx
嗨,我有一些关于导出
ONNX
模型
的问题。利用torch.
onnx
.export生成的
ONNX
模型
具有LSTM层。但是,我感兴趣的是它是否能够在操作符级别上生成
ONNX
模型
,即matmul,add。如果没有,是否有另一种方法可以建立操作符级的
ONNX
模型
? 谢谢,杰克
浏览 5
提问于2021-02-10
得票数 0
回答已采纳
1
回答
如何求未知PyTorch
模型
的输入张量形状
python
、
machine-learning
、
deep-learning
、
pytorch
、
onnx
我正在编写一个python脚本,它将所有深入学习
模型
从
流行的框架(TensorFlow、Keras、PyTorch)转换为
ONNX
格式。目前,我已经将用于tensorflow,用于keras到
ONNX
的转换,以及这些工作。 现在PyTorch已经集成了
ONNX
支持,所以我可以直接
从
PyTorch中保存
ONNX
模型
。但问题是,我需要输入张量形状的
模型
,以保存在
ONNX
格式。正如您可能已经猜到的,我正在编写这个脚本来转换
浏览 10
提问于2020-07-28
得票数 4
回答已采纳
3
回答
将暗网络
模型
转换为
onnx
darknet
、
tensorrt
、
onnx
我需要将这些权重导出为
onnx
格式,以便进行tensorRT推断。我尝试了多种技术,使用或进行转换。但似乎没有一个管用。有没有直接的方法呢?
浏览 15
提问于2020-07-01
得票数 4
1
回答
转换后的
ONNX
模型
在CPU上
运行
,而在GPU上不
运行
。
python
、
tensorflow
、
onnx
、
onnxruntime
我使用以下命令将TensorFlow
模型
转换为
ONNX
:python -m tf2
onnx
.convert --saved-model tensorflow-model-path --opset 10--output model.
onnx
转换是成功的,我可以在安装onnxruntime后在onnxruntime上推断。但是当我创建一个新的环境,在它上安装onnxruntime-gpu并使用GPU进行推理
时
,我会根据
模型
得到不同的错误消息。有人知道我在GPU上
运行
时为什么
浏览 20
提问于2020-08-10
得票数 1
回答已采纳
1
回答
如何在
ONNX
模型
中找到量化参数,从而将已经量化的tflite
模型
转换为
ONNX
?
onnx
、
yolov5
、
quantization
、
tf2onnx
我想要做的是将量化的tflite转换为
ONNX
,并使用tf2
onnx
直接使用ORT
运行
它。我试图转换的网络是YOLOv5,使用我自己的dataset + COCO进行预培训,
模型
已经成功转换。我确信这一点,因为我只是尝试加载
ONNX
模型
(通过PRT)和tflite
模型
,
从
tflite解释器的输入和输出细节中保存量化参数,使用这些量化参数实际
运行
ONNX
模型
的会话,它实际上显示了
运行
浏览 20
提问于2022-10-28
得票数 0
回答已采纳
1
回答
AWS Lambda -如何将
ONNX
模型
放入AWS层
amazon-web-services
、
aws-lambda
、
onnx
、
aws-lambda-layers
目前,我已经
从
S3下载了我的
ONNX
模型
,如下所示: s3 = boto3.client('s3') if os.path.isfile('/tmp/model.
onnx
') !('/tmp/model.
onnx
') 但是,我想减少下载此
模型
的延迟。为此,我希望将
模型
保存在AWS Lambda层中。然而,我在这样做
时
遇到了麻烦。model.
onn
浏览 21
提问于2020-09-29
得票数 2
回答已采纳
3
回答
使用keras保存的ML.NET加载
模型
python
、
.net
、
machine-learning
、
keras
、
ml.net
一旦我训练了它,我就导出了
模型
,我得到了两个文件: model.js和model.h5。现在,我想在.NET项目中进行实时分类,并使用经过训练的神经网络进行分类。在ML.NET中,有没有一种方法可以把用python导出的
模型
和经过训练的权重加载到
模型
对象中?我在documentation1中看到可以加载以前保存的
模型
,但显然是存储在.zip中,我找不到格式(可能是为了编写一个脚本,
从
python中获取
模型
并将其‘转换’为ML.NET
模型
。
浏览 22
提问于2019-04-30
得票数 4
回答已采纳
2
回答
如何将.h5文件转换为
ONNX
tensorflow
、
keras
、
deep-learning
、
computer-vision
、
onnx
我正在从事一个实时对象检测项目,我已经训练了数据并将
模型
保存到.h5文件中,然后我在一篇文章中写道,要加载该文件以检测opecCV中的对象,您需要以
onnx
格式将其转换为
onnx
格式,但是当使用pip或Conda安装它
时
,无论是使用pip还是使用Conda(它的不导入),当我将张量降到2.1.0
时
,它就起作用了,但这一次,由于TensorFlow上的旧版本,我的.h5文件出现了错误。
浏览 57
提问于2022-06-27
得票数 -2
2
回答
onnx
自定义op注册
python
、
keras
、
onnx
、
onnxruntime
我正在寻找与
ONNX
/
ONNX
运行
时中的keras自定义层类似的特性。我理解解决这个问题的方法是在
onnx
中实现一个自定义操作符以便进行实验。('A',
onnx
.TensorProto.FLOAT, [4])C =
onnx
.helper.make_ten
浏览 15
提问于2022-03-09
得票数 0
2
回答
我能否将两个
ONNX
图组合在一起,将输出从一个作为输入传递给另一个?
onnx
、
onnxruntime
我有一种型号,
从
火把出口,我会打电话给main_model.
onnx
。它有一个输入节点,我称之为main_input,它需要一个整数列表。我可以在of
运行
时加载它,并发送一个in列表,它工作得很好。我创建了另一个
ONNX
模型
,我将使用输入pre_input和输出pre_output调用pre_input。我的目标是,使用Python工具,创建一个接受文本作为输入的uber
模型
,并通过我的
onnx
.helper (可能是某个连接器节点(Identity?),然后在一个大的
浏览 32
提问于2021-02-12
得票数 1
回答已采纳
1
回答
PyTorch
模型
与CoreML相结合时输入维数的整形
python
、
pytorch
、
coreml
、
onnx
、
onnx-coreml
我在PyTorch中有一个PyTorch
模型
,我想使用CoreML
运行
它。当将
模型
导出到
ONNX
时
,输入维度被固定为导出过程中使用的张量的形状,并再次通过从
ONNX
到CoreML的转换。='13')对于
ONNX
导出,您可以导出动态维度- model, x, 'example.
onnx<
浏览 3
提问于2020-05-17
得票数 4
1
回答
加载
ONNX
模型
失败: ShapeInferenceError
onnxruntime
在OrtCreateSession中,尝试加载包含消息的
onnx
模型
时
失败:什么意思?我在哪里找这个问题?谢谢你的建议。
浏览 0
提问于2019-06-19
得票数 0
1
回答
导出
onnx
模型
时
出错
。
pytorch
、
typeerror
、
onnx
下面是
模型
:TyperError
浏览 13
提问于2022-02-24
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
融合 Caffe2、ONNX 的新版 PyTorch 发布在即,能否赶超 TensorFlow?
新版PyTorch发布在即,融合Caffe2、ONNX
跨越重重“障碍”,我从 PyTorch 转换为了 TensorFlow Lite
作业帮基于 WeNet + ONNX 的端到端语音识别方案
热门:Facebook AI大师推出全新的Pytorch 1.0框架
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券