腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
为
onnx
模型
开发
阅读器
、
、
我正在试着
为
《朱莉娅》中的
onnx
模特做一个读者。通常,
onnx
模型
由一个model.pb文件组成,该文件包含有关
模型
的元数据。但是,我不知道如何使用协议缓冲区或协议缓冲区的Julia实现(ProtoBuf.jl)从这个model.pb文件生成数据结构,以便稍后可以为
模型
生成Julia代码。谁能告诉我怎样才能让一个
阅读器
将
onnx
模型
加载到Julia中?
浏览 3
提问于2018-01-27
得票数 1
1
回答
使用openCV从
ONNX
加载网络时出现问题(python/pytorch)
、
、
、
我正在尝试将一个经过训练的.
onnx
模型
(来自神经风格的传输算法)加载到cv2中。我已经看到有一个函数,但cv2中没有这样的函数。我似乎无法将opencv作为cv导入或加载,因此似乎无法在cv2中加载我的
模型
。有人知道解决方案吗?我基本上已经用这个脚本训练了一个
模型
,并通过添加以下内容导出了一个
onnx
模型
torch.
onnx
.export(style_model, dummy_input, "chips
浏览 5
提问于2018-11-09
得票数 3
2
回答
NN
模型
格式转换tflite ->
onnx
、
我想把托管的
模型
主要是mobilenets转换成
ONNX
格式。因此,我想尝试这些托管
模型
的量化版本,并使用运行它们。 将这些
模型
转换为供使用的正确步骤是什么
浏览 13
提问于2020-05-20
得票数 1
1
回答
如何将py手电3d cnn代码转换为keras?
、
、
而且,当我运行keras代码时,会出现以下错误: 火炬代码:
浏览 2
提问于2020-04-06
得票数 1
1
回答
运行
onnx
模型
的颤振插件
、
我的团队正在
开发
一个应用程序,将涉及一些设备ML
模型
的
onnx
格式。目前,我们考虑颤振和反应本土。我更喜欢颤振,但找不到任何支持运行在设备
onnx
模型
上的插件。在RN中,我们可以使用微软的
onnx
.js。
浏览 2
提问于2020-06-09
得票数 0
回答已采纳
1
回答
在训练
ONNX
的预训练
模型
情感FerPlus时抛出异常'cuDNN failure 8: CUDNN_STATUS_EXECUTION_FAILED‘
、
、
我正在测试训练Emotion FerPlus情感识别
模型
。训练出现cuDNN failure 8: CUDNN_STATUS_EXECUTION_FAILED错误。
浏览 40
提问于2020-10-29
得票数 1
回答已采纳
1
回答
Seq2seq移液器推断慢
、
、
、
、
(input_lines_trg, next_preds.unsqueeze(1)), ) 在GPU上对
模型
进行训练,并在CPU模式下加载
模型
进行推理。
浏览 3
提问于2017-08-31
得票数 0
1
回答
如何手动将tensorflow
模型
转换成tensorflow
模型
?
、
、
、
由于
ONNX
支持有限的
模型
,所以我试图通过直接指定参数来完成这一转换,但是所获得的tensorflow
模型
未能显示出所需的精度。详情如下: 然而
浏览 4
提问于2019-10-31
得票数 1
回答已采纳
1
回答
为什么keras2
onnx
.convert_keras()函数一直给我带来错误"'KerasTensor‘对象没有属性’图形‘“
、
、
、
、
我有一个经过训练的
模型
(我自己训练过),它是一个.h5格式,它本身工作正常,但是我需要将它转换成.
onnx
格式,以便在Unity中部署它,我搜索了如何将.h5
模型
转换为.
onnx
格式,并偶然发现了keras2
onnx
pip install git+https://github.com/
onnx
/keras-
onnx
import keras2
onnx
import
onnx</e
浏览 7
提问于2021-03-10
得票数 2
回答已采纳
2
回答
从.pt
模型
到.h5
模型
的转换
、
、
、
我想转换.pt
模型
从我的谷歌驱动器到.h5
模型
。/www.programmersought.com/article/57938937172/并安装库,还编写如下代码: %pip install pytorch2keras %pip install
onnx
浏览 474
提问于2021-07-29
得票数 2
1
回答
ONNX
运行时在加载
onnx
模型
时抛出TypeError
、
、
、
、
我已经将savedModel格式转换为
onnx
模型
,但是当通过
onnx
加载它时 import onnxruntime as rt sess = rt.InferenceSession('model.
onnx
ONNXRuntimeError] : 10 : INVALID_GRAPH : Load model from /mnt/model/io_files/convert/1606801475/model.
onnx
浏览 379
提问于2020-12-01
得票数 0
1
回答
如何将
ONNX
转换回pth格式
、
、
、
我有一个
模型
的
onnx
格式,我想运行它的快速学习者。可能是这样的另一种方式是转换回pth格式,但我没有看到任何适当的库在这个任务。
浏览 11
提问于2022-06-16
得票数 1
1
回答
将
ONNX
模型
转换为TensorFlow精简版
、
、
我有一些
ONNX
Model Zoo的
模型
。我想在安卓( TensorFlow )应用程序中使用这里的
模型
,但我在弄清楚如何转换
模型
时遇到了问题。根据我所读到的,我需要遵循的过程是将
ONNX
模型
转换为TensorFlow
模型
,然后将该TensorFlow
模型
转换为TensorFlow Lite
模型
。import
onnx
imp
浏览 53
提问于2020-08-15
得票数 4
回答已采纳
3
回答
如何将OneHot包含在来自PyTorch的
ONNX
中
、
、
、
我正在使用PyTorch训练神经网络并将它们输出到
ONNX
中.我在索引中使用这些
模型
,该索引通过TensorRT加载
ONNX
。我需要一些特性的一个热编码,但这真的很难在Vespa框架内实现。是否有可能在我的
ONNX
网络中(例如,在网络表示之前)嵌入对某些给定功能的单热编码?如果是这样的话,我应该如何基于PyTorch
模型
来实现这一点?我已经注意到两件事:
浏览 17
提问于2021-03-09
得票数 3
回答已采纳
1
回答
无法将QNN brevitas导出到
ONNX
、
、
、
、
我用布雷维塔训练我的
模型
为
QNN。基本上,我的输入形状是:from brevitas.export import FINNManager FINNManager.export(my_model, input_shape=(1
浏览 6
提问于2022-06-14
得票数 0
3
回答
如何合并两个
ONNX
深度学习
模型
、
、
我有两个
ONNX
格式的
模型
。这两个
模型
是相似的(都是预训练的深度学习
模型
,例如。ResNet50
模型
)。它们之间唯一的区别是,最后一层针对不同的数据集进行了优化/重新训练。我想合并这两个
模型
的前k层,如下所示。这应该会增强推理的性能。
浏览 27
提问于2020-08-07
得票数 1
1
回答
RuntimeError:仅支持将元组、列表和变量作为JIT输入,但获取了NoneType
、
我的代码是 a=torch.randn(1,80,100,requires_grad=True) torch.
onnx
.export(waveglow,a, "waveglow.
onnx
") 我正在尝试将PyTorch
模型
导出
为
ONNX
格式,这样我就可以在TensorRT中使用它。在PyTorch中测试我的
模型
时,输入张量维度是(1,80,x),其中x随输入文本长度而变化(我使用的
模型
是名为waveglow的TTS
模型
) 当我尝试运
浏览 631
提问于2019-03-10
得票数 3
1
回答
使用
ONNX
在Python和Java之间进行训练
模型
格式转换
、
、
、
在
ONNX
文档中,如果我在Python中训练一个
模型
,例如scikit learn或Pytorch,我可以将其保存为
ONNX
格式,然后将其部署到Java运行时生产环境中。 有没有可能在相反的方向做呢?例如,在Java中训练
模型
,然后将其保存为
ONNX
格式或类似格式,并将其部署到Python生产环境中?
浏览 5
提问于2021-03-07
得票数 0
1
回答
T5类
模型
的加速推理
、
、
、
我目前正在生产中使用一个名为T0pp ()的
模型
,并希望加快推理速度。我所看到的加速推理的主要替代方法是使用下面的Pytorch
模型
: PS: 我已经试过SageMaker了,但这并不适用于T0pp (40 is )这样的大型车型。
浏览 25
提问于2022-02-21
得票数 0
回答已采纳
2
回答
如何优化推理脚本,使分类器得到更快的预测?
、
、
、
、
我已经编写了下面的预测代码,它是从经过训练的分类器
模型
中预测出来的。现在的预测时间大约是40,000,我想尽量减少。 我是否可以对我的推理脚本做任何优化,或者我应该寻找在训练脚本方面的发展?
浏览 0
提问于2018-12-28
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
微软开源ONNX Runtime模型以加速Google BERT
ONNX,一个模型互操作的 Python 库!
微软开源以ONNX Runtime加速BERT模型的优化成果
Apache OpenNLP集成ONNX Runtime现可高效执行Transformer模型
微软开源用于机器学习模型的高性能推理引擎ONNX
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券