腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
是否
可以
将
coreml
模型
中
输入
张量
的
类型
从
多
阵列
更
改为
图像
?
image
、
tensorflow
、
coreml
我有一个带有这些参数
的
coreml
模型
,我想将
输入
张量
的
类型
从
具有形状
的
多数组(112,112,3)更
改为
RGB image(112,112)。
浏览 34
提问于2019-09-24
得票数 1
1
回答
CoreML
输出
类型
python
、
keras
、
coreml
是否
可以
更改
CoreML
模型
的
输出
类型
?我
的
模型
以
图像
作为
输入
,
将
图像
作为输出,但当我
将
Keras
模型
转换为mlmodel时,我得到:
coreml
_model = coremltools.converters.keras.convert('/user/Desktop/model.h5
浏览 1
提问于2017-09-07
得票数 2
1
回答
协同工具:如何正确使用NeuralNetworkMultiArrayShapeRange?
python
、
pytorch
、
coreml
、
coremltools
简而言之,我不能在
CoreML
中
为
输入
张量
形状增加灵活性。 网络是一个convnet,它以RGB映像(存储为
张量
)作为
输入
,并返回相同大小
的
RGB映像。使用PyTorch,我
可以
输入
任意大小
的
图像
,例如,300x300
图像
的
大小
张量
(1,3,300,300)。为了
将
PyTorch
模型
转换为
CoreML<
浏览 2
提问于2020-01-09
得票数 0
回答已采纳
1
回答
CoreML
模型
:
将
imageType
模型
输入
转换为multiArray
ios
、
swift
、
multidimensional-array
、
coreml
、
coremltools
使用PyTorch,我训练了一个简单
的
多
类分类器,我想把它转换成
CoreML
模型
格式。它被转换了,但是有一个问题。我已经搜索了相当详尽
的
内容,但大多数关于mlmodel
输入
的
问题都是关于如何
将
mlmodel
的
输入
格式
从
MLMultiArray更
改为
UIImage,因为它们必须处理
图像
。但是,如果我
的
模型
期望一个UIImage作为
浏览 2
提问于2020-01-16
得票数 1
回答已采纳
2
回答
CoreML
转换
的
keras
模型
请求多个数组
输入
,而不是Xcode
中
的
图像
image
、
multidimensional-array
、
keras
、
coreml
、
multiclass-classification
我
的
目标是将该
模型
转换为
CoreML
,并将其用于iOS上
的
图像
分类。”,image_input_names =“数据”,class_labels =“类路径”) 但是,在
将
CoreML
模型
复制到Xcode
中
之后,它请求一个形状为512,1,1
的
多个数组(我猜这是由于神经网络
的
图像
数组格式所致在Apple Developer论坛上,他们建议
将
转换代码更
浏览 1
提问于2017-12-08
得票数 0
1
回答
如何使用PyTorch正确地实现数据重组?
pytorch
、
coreml
、
onnx
我正在研究去噪算法,我
的
目标是:去噪算法由以下三部分组成:通道0、1和2
的
1x15x50x50Tensor's值均为σ=0.1,通道3、4、5、6
的
张量
由通道0
的
输入
图像
值组成
浏览 1
提问于2019-12-04
得票数 2
回答已采纳
1
回答
为什么在tensorflow
中
,Conv2D
的
输入
通道限制为1,3,4,
张量
维限制为4-D?
python
、
tensorflow
、
machine-learning
、
computer-vision
、
conv-neural-network
我正在尝试
将
shape (n_samples,n_channels,height,width)
的
数据传递给我
的
模型
,该
模型
将
Conv2D作为其第一层。当我尝试简单地
将
张量
作为
输入
传递时,它会报错:我尝试
将
形状更
改为
类似于[60,
浏览 24
提问于2020-05-22
得票数 0
2
回答
IOS
中
的
MLMultiArray切片与整形
ios
、
coreml
、
coremltools
我有一个
coreML
模型
(
从
Keras转换而来),它生成大小为MLMultiArray (1,40,30,90)
的
输出(例如名称: finalOutput)。该
阵列
是通过重塑维数
的
内部
张量
(1,10800,10)获得
的
。我无法
将
finalOutput multiArray分为三个维度(1,40,30,0:45),( 1,40,30,45:54)和(1,40,30,54:90)。然后
将
这些子数组重组为三个维度数组(1,
浏览 1
提问于2018-04-24
得票数 1
回答已采纳
1
回答
ML
模型
输入
和输出类比
json
、
machine-learning
、
caffe
、
pytorch
随着我对ML (我是一名移动DEV)
的
了解越来越多,我开始在我
的
脑海中形成一个类比。我想要社区
的
意见/验证。我在尝试使用ML
模型
时遇到了一个问题,我不知道如何读取预期
输入
(API),也不知道如何解码预期输出。到目前为止,我
的
经验是支离破碎
的
,因为一些
模型</em
浏览 2
提问于2019-01-24
得票数 0
1
回答
将
多个
图像
馈送到
CoreML
图像
分类
模型
(swift)
classification
、
coreml
我知道如何使用
CoreML
库来训练
模型
并使用它。然而,我想知道
是否
有可能向
模型
提供多个
图像
,以便它能够
更
准确地识别它。这样做
的
原因是因为我正在尝试建立一个对组织切片进行分类
的
应用程序,然而,它们
中
的
许多看起来非常相似,所以我想也许我
可以
以不同
的
放大倍数
输入
模型
图像
,以便进行识别。有可能吗? 谢谢你,Mehdi
浏览 26
提问于2020-06-19
得票数 1
回答已采纳
1
回答
Onnx- to -keras和Keras2onnx
将
ONNX
模型
输入
层更
改为
Nx1x200x200,而不是原来
的
1x1x200x200。
python-3.x
、
tensorflow
、
keras
、
onnx
、
onnxruntime
目前,我正试图
将
ONNX model导入到Keras,以便对大小为1x1x200x200
的
灰度
图像
的
数据集进行培训。但是,当我
将
onnx
模型
转换为Keras时,
可以
使用
模型
的
输入
层被更
改为
?x1x200x200作为.h5 model。当转换回.onnx文件时,
输入
层已更
改为
Nx1x200x200。 在试图训练
模型
浏览 4
提问于2020-06-25
得票数 2
回答已采纳
1
回答
GRadi-Py手电筒MNIST数字识别器
deep-learning
、
neural-network
、
pytorch
、
mnist
、
gradio
我在YouTube 上观看了以下视频,其中显示
可以
在Tensorflow中使用G收音机和MNIST数据集
的
学习
模型
。我已经读过和写过,它是有可能使用在Gradio,但我有问题,它
的
实施。我
的
cnn火炬代码class CNN(nn.Module): super(CNN, selfoutput = self.out(x) return output, x # return x f
浏览 2
提问于2022-03-26
得票数 1
回答已采纳
2
回答
如何使用numpy数组值在Keras
模型
中
输入
张量
?
python
、
tensorflow
、
keras
我尝试向keras
模型
张量
提供numpy数组
的
值。但是
张量
是4D
的
,
阵列
是3D
的
。如何
将
这个3Dnumpy数组(128,128,3)转换为4D (?,128,128,3)
张量
?
浏览 13
提问于2020-07-26
得票数 0
1
回答
mlmodel NNClassifier
的
输出形状是多数组
的
,VNClassificationObservation不工作吗?
swift
、
xcode
、
coreml
需要帮助来部署
从
GCP生成并部署在Xcode上
的
coreML
模型
吗? 我
的
iPhone上
的
应用程序打开,我
可以
拍照,但
模型
被困在‘分类.’这最初是由于
输入
图像
大小(我将其更
改为
224*224),我能够使用coremltools修复它,但是对于输出,当我拥有的.mlmodel有一个多数组(Float32)输出时,我需要一个字典输出。另外,GCP
coreML
提供了两个文件,一个lab
浏览 3
提问于2020-10-03
得票数 0
1
回答
创建
CoreML
LRCN
模型
python
、
ios
、
keras
、
recurrent-neural-network
、
coreml
我们
的
目标是创建一个
多
对
多
的
结构,在填充
图像
序列
中
对每个项目进行分类。我将在下面发布
模型
的
代码。 我训练和部署这个网络
的
计划可能会引发其他问题,但如果它们造成麻烦,我
将
另行发布一篇文章。它涉及到使用时间分布式包装器进行训练,然后将其
从
模型
中
剥离出来,并在
CoreML
转换时加载包装层
的
权重,因为时间分布式包装器不能很好地与
浏览 7
提问于2018-01-29
得票数 3
回答已采纳
1
回答
IPhone X真深度
图像
分析与
CoreML
ios
、
neural-network
、
iphone-x
、
coreml
我有一个应用程序
的
想法,当用户拍摄一张照片,应用程序
将
分析它,并削减除所需
的
对象(例如一个小片),并将它保存在一个单独
的
图像
。根据我
的
理解,开发人员
可以
更
容易地移除背景,因为iPhone
将
知道背景位置。iPhone X用真正
的
深度相机拍摄
的
照片
的
格式是什么?我读过关于
CoreML
的
文章,尝试过一些例子,但对我来说还不清楚
浏览 2
提问于2017-11-03
得票数 2
回答已采纳
1
回答
CoreML
中
Python Tensorflow
模型
的
图像
输入
python
、
tensorflow
、
classification
、
coreml
、
coremltools
我正在使用
张量
流(python)实现一个简单
的
图像
分类
模型
。这是我
的
图像
预处理:for filename in glob.glob('/Volumes/G-DRIVE mobile USB-C/traan/*.jpeg'): #assumingim = im.resize((150,120), Image.ANTIALIAS) training_images
浏览 0
提问于2019-01-06
得票数 0
1
回答
keras
模型
与tf.keras
模型
的
兼容性
keras
、
tf.keras
、
coremltools
我感兴趣
的
是在tf.keras
中
训练一个
模型
,然后用keras加载它。我知道这不是很明智,但我对使用tf.keras来训练
模型
很感兴趣,因为 我想使用
coreml
将
模型
部署到ios。我现在
的
解决方案是
将
tf.keras
模型
保存在json文件
中
(用于<
浏览 1
提问于2019-07-22
得票数 4
回答已采纳
1
回答
关于UIImage -> CVPixelBuffer -> UIImage转换
的
问题
swift
、
uiimage
、
coreml
、
cvpixelbuffer
我正在SwiftUI
中
做一个简单
的
去噪POC,我想: 我有一些基于我在网上找到
的
几十个源代码
的
东西。根据我所读到
的
,一个
CoreML
模型
(至少我正在使用
的
模型
)接受一个CVPixelBuffer,并输出一
浏览 6
提问于2020-02-19
得票数 1
回答已采纳
1
回答
将对象检测
模型
嵌入到iOS应用程序
中
,并将其部署到UIView
的
内容上,而不是相机流?
ios
、
objective-c
、
xcode
、
tensorflow
、
coreml
我通过tensorflow对象检测API在我
的
自定义类上重新训练了一个ssd_mobilenet_v2。我现在有了一个frozen_inference_graph.pb文件,
可以
嵌入到我
的
应用程序中了。和网站只展示了如何将其用于iOS内置摄像头流。相反,我为我
的
iPhone提供了一个外部摄像头,它
可以
流到UIView组件
中
。我希望我
的
网络能够检测其中
的
对象,但是我
的
研究并没有指出任何明显
的
实现/教程。 我<
浏览 0
提问于2019-01-19
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
从基础概念到实现,小白如何快速入门PyTorch
简明教程.AI人工智能
机器学习十大热文新鲜出炉,这个月你该读哪篇?
2月份机器学习TOP 10,春节假期耽误你看文章了吗?
神经网络基础
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券