腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
具有
onnx
模型
的
Arm
NN
android
上
运行
推理
machine-learning
、
neural-network
、
deep-learning
、
onnx
谁能告诉我,我们如何在
具有
onnx
模型
的
Arm
NN
android
上
运行
推理
。
在
armnn网站上,我已经搜索了这个,但没有足够
的
内容为
android
的
onnx
模型
。
浏览 36
提问于2019-12-05
得票数 1
回答已采纳
1
回答
将seq2seq NLP
模型
转换为
ONNX
格式是否会对其性能产生负面影响?
python
、
machine-learning
、
nlp
、
huggingface-transformers
、
onnx
我正在考虑将ml
模型
转换为
ONNX
格式,以便利用它
的
速度增长(
ONNX
)。然而,我并不真正理解与旧
模型
相比,新
模型
中发生了什么根本性
的
变化。而且,我也不知道是否有什么缺点。
浏览 3
提问于2021-02-13
得票数 2
回答已采纳
1
回答
从火把输出到
ONNX
后,准确度下降了大约10%。
python
、
python-3.x
、
pytorch
、
onnx
我一直
在
使用efficientnetV2训练网络。列车过程进行顺利,我达到了93-95%
的
验证精度.在此之后,我
在
一个集测试
上
运行
一个
推理
过程,其中包含
的
新图像
具有
可接受
的
准确性,大约为88% (例如)。
在
我检查
模型
是否工作良好时,我需要将其转换为
ONNX
,然后再转换为张紧引擎。我有一个脚本可以使用
ONNX
模型
运行
推断,以检查我
浏览 8
提问于2022-06-14
得票数 0
2
回答
如何在C++中加载ArmNN for Linux中基本
onnx
模型
c++
、
linux
、
arm
、
onnx
我正在尝试创建一个基于ArmNN
的
C++独立应用程序,可以
在
ONNX
机型
上
运行
。首先,我下载了几个用于测试
的
标准
模型
,当尝试加载
模型
时,我看到一个崩溃,上面写着“张量numDimensions必须大于0”。 奇怪
的
是,我用来加载
模型
的
函数只有一个参数,那就是
模型
名。没有地方让我指定尺寸之类
的
东西。也许我在这里做错了什么?或者这不是加载
模型
浏览 60
提问于2019-08-23
得票数 3
2
回答
如何提高部署
的
模型
延迟
deep-learning
、
pytorch
、
torch
、
torchscript
问题:如何在不对
模型
进行再培训
的
情况下提高web部署
的
模型
延迟?为了提高
模型
的
速度,我应该标记
的
清单是什么?上下文:I有多个
模型
,使用一个K80 GPU
在
一台机器
上
顺序处理视频;每个
模型
大约需要5分钟才能处理1分钟长
的
视频。
在
不改变
模型
架构
的
情况下,我应该尝试改进每个
模型
延迟
的
想法和建议吗?我
浏览 9
提问于2021-08-20
得票数 1
1
回答
ONNX
网络可能与
ONNX
不兼容吗?
c++
、
onnxruntime
我
在
ONNX
模型
上
运行
推理
时遇到了麻烦,要么是对this Windows ML tutorial进行(微小
的
)调整,要么是在他们
的
MNIST Tutorial之后实现我自己
的
ONNX
Runtime代码抛出
的
异常要么难以理解(
在
异常处理过程中由looks抛出
的
第二个异常...)或者根本无法辨认。这让我想知道网络本身是不是
在
某种意义
上</e
浏览 32
提问于2021-01-19
得票数 0
1
回答
运行
时C#不记得LSTM网络
的
状态
c#
、
neural-network
、
lstm
、
onnx
、
onnxruntime
我将训练后
的
神经网络从Matlab输出到
ONNX
。然后我尝试用
运行
这个网络。但是,看起来我做错了什么,网络在前面的步骤中不记得它
的
状态。输入: 0.258881980200294,1.354147904050896;输出: 0.311363101005554,1.391810059547424 前两个例子是只由一个元素组成
的
序列最后一个例子是两个元素
的
序列。这些输出在Matlab中进行了计算。我
在
Matlab中重置网络,然后用每一个新
的
序列来执
浏览 7
提问于2020-02-12
得票数 2
1
回答
将
ONNX
模型
转换为Caffe2时出现
的
问题
inference
、
onnx
、
caffe2
、
onnxruntime
我将TF
模型
转换为
ONNX
,然后将
ONNX
模型
转换为Caffe2。转换成功。但是,当试图从所获得
的
模型
加载和推断时,我得到了一个RunTime错误。[W common_gpu.cc:35] Insufficient cuda driver.
浏览 4
提问于2020-11-23
得票数 1
回答已采纳
1
回答
只加载一次已部署
的
ONNX
模型
python
、
tensorflow
、
machine-learning
、
computer-vision
、
onnx
我有一个大型机器学习/计算机视觉项目,它使用
ONNX
模型
,使用python。该项目大约需要3秒(本地)才能加载
模型
+推断。加载
onnx
模型
所需
的
时间:
onnx
推理
所需
的
0.2702977657318115时间,
onnx
推理
所需
的
1.673530101776123时间,
onnx
推理
所需
的
时间0.767701387405
浏览 6
提问于2022-10-30
得票数 1
回答已采纳
1
回答
在
python中使用
Onnx
模型
运行
推理
?
python
、
machine-learning
、
predict
、
onnx
我正在尝试检查我
的
.
onnx
模型
是否正确,并且需要
运行
推断来验证相同
的
输出。我找到了MXNet框架,但我似乎无法理解如何导入
模型
--我只有.
onnx
文件,除了
浏览 3
提问于2018-06-21
得票数 1
回答已采纳
2
回答
在
Android
上
运行
GluonCV对象检测
模型
mxnet
、
mxnet-gluon
我需要在
Android
上
运行
一个定制
的
GluonCV对象检测模块。我已经对自定义数据集
上
的
模型
(ssd_512_mobilenet1.0_custom)进行了微调,我尝试使用它
运行
推理
(加载
在
培训期间生成
的
.params文件),并且
在
我
的
计算机上一切都
运行
得很好。现在,我需要把这个导出到
Android
。 我指的是来确定这个过程,
浏览 3
提问于2021-03-02
得票数 0
回答已采纳
1
回答
PyTorch
模型
与CoreML相结合时输入维数
的
整形
python
、
pytorch
、
coreml
、
onnx
、
onnx-coreml
我
在
PyTorch中有一个PyTorch
模型
,我想使用CoreML
运行
它。当将
模型
导出到
ONNX
时,输入维度被固定为导出过程中使用
的
张量
的
形状,并再次通过从
ONNX
到CoreML
的
转换。='13')对于
ONNX
导出,您可以导出动态维度- model,
浏览 3
提问于2020-05-17
得票数 4
1
回答
Seq2seq移液器推断慢
python
、
deep-learning
、
recurrent-neural-network
、
pytorch
、
sequence-to-sequence
我尝试了在这里可用
的
seq2seq pytorch实现,。在对评估(evaluate.py)代码进行分析之后,需要较长时间
的
代码段是方法。(input_lines_trg, next_preds.unsqueeze(1)), )
在
GPU
上
对
模型
进行训练,并在CPU模式下加载
模型
进行
推理
。但不幸
的
是,每句话似乎都需要10秒。是否期望
在
火把上进行
浏览 3
提问于2017-08-31
得票数 0
3
回答
目前最快
的
Mask R-CNN实现是什么
tensorflow
、
deep-learning
、
computer-vision
、
pytorch
、
onnx
我
在
边缘设备(带有NVIDIA GTX 1080)
上
运行
Mask R-CNN
模型
。我目前正在使用Detectron2 Mask R-CNN实现,我相信
推理
速度大约为5FPS。为了加快速度,我研究了其他
推理
引擎和
模型
实现。例如
ONNX
,但我无法获得更快
的
推理
速度。 TensorRT在我看来非常有前途,但我还没有找到一个现成
的
“开箱即用”
的
实现。有没有其他成熟和快速
的
浏览 73
提问于2019-12-18
得票数 7
3
回答
如何在Unity中为产品代码部署pytorch神经网络
unity3d
、
pytorch
、
ml-agent
我有一个用pytorch训练
的
神经网络,我想把它部署到Unity应用程序中。做这件事最好
的
方法是什么?我还对允许用户
在
Unity应用程序中进一步训练神经网络感兴趣,我猜这将需要将pytorch
的
某些部分集成到Unity中(也许有一种方法可以将pytorch
的
C++ / torchscript API与Unity如果有人有这方面的经验,我想知道最好
的
替代方案是什么。
浏览 5
提问于2019-05-27
得票数 4
1
回答
如何在
ONNX
运行
时多线程?
onnxruntime
利用
ONNX
在
深度学习
模型
上
运行
推理
。假设我有4个不同
的
模型
,每个
模型
都有自己
的
输入映像,我可以
在
4个线程中并行
运行
它们吗?会不会有一个“环境”和4个会话(使用相同
的
环境)?
浏览 4
提问于2020-04-17
得票数 7
回答已采纳
1
回答
在
尝试将双线性层转换为
ONNX
时,
onnx
提供了INVALID_GRAPH
pytorch
、
onnx
当我将
具有
双线性层
的
网络转换为
ONNX
时,就会出现以下错误。RuntimeError: ONNXRuntimeError : 10 : INVALID_GRAPH : test.
onnx
的
加载
模型
失败:
在
节点()中输入运算符(地板)
的
输入参数(11)
的
类型错误:复制
的
方式-import torch.
nn
.fun
浏览 2
提问于2019-06-20
得票数 2
回答已采纳
1
回答
T5类
模型
的
加速
推理
python
、
deep-learning
、
pytorch
、
huggingface-transformers
我目前正在生产中使用一个名为T0pp ()
的
模型
,并希望加快
推理
速度。我
在
随需应变
的
EC2 g4dn.12xlarge实例(4个Nvidia T4 GPU)
上
运行
以下代码: 深速
浏览 25
提问于2022-02-21
得票数 0
回答已采纳
2
回答
在
C# Windows窗体应用程序中使用
ONNX
模型
c#
、
visual-studio
、
faster-rcnn
、
onnx
、
onnxruntime
我
在
Keras中训练了Mask RCNN
的
深度学习
模型
,并导出了一个
ONNX
模型
(权重矩阵),它能够
在
Python中成功地
运行
和测试图像。是否有可能通过Visual
在
,C#中使用相同
的
ONNX
模型
?系统信息: 掩码RCNN,
在
ONNX
浏览 10
提问于2019-10-03
得票数 1
1
回答
转换后
的
ONNX
模型
在
CPU
上
运行
,而在GPU
上
不
运行
。
python
、
tensorflow
、
onnx
、
onnxruntime
我使用以下命令将TensorFlow
模型
转换为
ONNX
:python -m tf2
onnx
.convert --saved-model tensorflow-model-path --opset 10--output model.
onnx
转换是成功
的
,我可以
在
安装onnxruntime后
在
onnxruntime
上
推断。但是当我创建一个新
的
环境,
在
它
上
安装onnxruntime-gpu并使用GPU进行
浏览 20
提问于2020-08-10
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Arm中国“周易”人工智能平台可以降低算力成本!
轻量级深度学习端侧推理引擎 MNN
模型仅1MB,更轻量的人脸检测模型开源,效果不弱于主流算法
ARM中国发布“周易”Z2芯片
作业帮基于 WeNet + ONNX 的端到端语音识别方案
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券