腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
如
何用
CoreML
在
objective-C
中
使用
机器
学习
模型
、
、
、
我有一个用
objective-C
编写的
机器
视觉项目(几千行)。为了完成它,我需要
使用
最新的
coreML
库导入我的
机器
的My_model.mlmodel。当然,我将我的
模型
导入到纯Swift项目中,并且它可以工作。所以我将Swift类附加到我的项目中,希望让它以这种方式工作,但在这里,Xcode再次将
模型
转换为"
Objective-C
生成的
模型
接口“,该
模型
在
Swift类
中
浏览 9
提问于2017-08-29
得票数 3
1
回答
VNCoreMLFeatureValueObservation对VNClassificationObservation类
、
、
我
在
CoreML
上做研究,创建
机器
学习
应用程序。我正在阅读苹果文档,发现了这两个类VNCoreMLFeatureValueObservation和VNClassificationObservation.
在
阅读了文档之后,我对应该
使用
这些类的
模型
感到困惑此外,苹果文档还提供了不同的
模型
,
如
mobileNet、SqueezeNet、Places205-GoogLeNet、ResNet50和VGG16。
浏览 0
提问于2018-11-24
得票数 0
回答已采纳
1
回答
在
目标C
中
运行
coreml
、
我很难
在
Objective-C
中
创建一个非常简单的
使用
苹果的
Objective-C
的例子。我已经
使用
python创建了一个
模型
文件,该文件现在非常简单:test_x =[1.0 for x in range(160)] predictions_
coreml
_svm =
coreml</
浏览 4
提问于2017-11-28
得票数 3
回答已采纳
2
回答
使用
VNCoreMLModel和Inceptionv3.model()有什么区别?
、
、
、
、
我一直
在
尝试开始
使用
CoreML
(苹果的
机器
学习
库)。我将按照这些教程开始
学习
2) Places205-GoogLeNet教程
使用
以下代码 answerLabel.text = &qu
浏览 0
提问于2017-10-22
得票数 1
1
回答
使用
表格数据进行
CoreML
设备上
模型
训练
、
、
、
我的应用程序的训练数据是100%个人化的,所以预先训练
模型
并没有什么意义。我希望能够
在
设备上训练。我知道
CoreML
3支持神经网络和kNN分类器的更新,但这真的对我的表格数据有帮助吗?其他表格分类器,
如
吹嘘的树,随机森林...不幸的是不能在设备上训练。对于那些更简单的
机器
学习
算法的设备训练,有没有
CoreML
的替代品?或者
CoreML
已经在做我想要的事情了。
浏览 13
提问于2019-11-20
得票数 2
1
回答
如何在此项目中实现新的.mlmodel
、
、
、
我正在尝试创建一个
使用
核心ml
模型
的手写数字识别器。我从另一个类似的项目中获取代码:https://github.com/r4ghu/iOS-
CoreML
-MNIST 但我需要将我的
机器
学习
模型
整合到这个项目中。这是我的
模型
:(输入图像为299x299) https://github.com/LOLIPOP-INTELLIGENCE/createml_handwritten 我的问题是,<e
浏览 19
提问于2018-12-30
得票数 0
回答已采纳
1
回答
当应用程序不再需要
CoreML
时,如何阻止它运行?
、
、
我的应用程序
在
CoreML
模型
上运行Vision。
机器
学习
模型
运行的摄像机帧来自ARKit sceneView (基本上是相机)。我有一个叫做loopCoreMLUpdate()的方法,它可以连续运行
CoreML
,这样我们就可以
在
新的相机框上继续运行这个
模型
。imageRequestHandler.perform(self.visionRequests) print(erro
浏览 3
提问于2020-05-14
得票数 0
回答已采纳
2
回答
CoreML
转换的keras
模型
请求多个数组输入,而不是Xcode
中
的图像
、
、
、
、
这实际上是我第一篇关于Stackoverflow的文章,我对
机器
学习
非常陌生。目前,我正尝试用VGG16训练一个简单的图像分类任务的卷积神经网络。它基于本教程:。经过一些挣扎之后,通过
使用
以下转换行,我能够成功地将Keras
模型
转换为
CoreML
模型
:
coreml
_model =coremltools.converters.keras.convert(“
模型
路径”,image_input_names =“数据”,class_labels =“类路径
浏览 1
提问于2017-12-08
得票数 0
1
回答
亚马逊EC2 T2实例是否适合运行TensorFlow移动或TensorFlow精简版?
、
、
我正在
学习
亚马逊的移动web服务,我确实有一个项目
在
考虑之中。我不认为我计划从头开始创建
机器
学习
数据
模型
,但是我确实注意到
在
AWS中有一个AI/
机器
学习
服务。我计划在iOS上
使用
CoreML
。我目前正在从免费层
学习
,我想知道这个选项会提供多少真正的东西。我想知道T2实例是否适合与TensorFlow移动或TensorFlow精简版一起
使用
?
浏览 1
提问于2018-09-23
得票数 0
1
回答
使用
MLMultiArray作为
CoreML
模型
的输出
、
、
、
、
我
使用
PyTorch训练了一个YOLOv3-SPP
模型
。然后,我将
模型
保存为onnx格式,然后
使用
onnx-
coreml
将我的onnx
模型
转换为
CoreML
。我似乎不知道如何
使用
我的
模型
,因为输出是MLMultiArrays。 我是
机器
学习
的新手,当尝试
使用
这个
模型
时,我不知道从哪里开始。假设我的
模型
是一个
在<
浏览 4
提问于2020-03-14
得票数 0
3
回答
从VNFaceObservation中分类人脸
、
、
、
、
我正在
使用
Vision框架来检测多幅图像上的面孔和对象,效果非常好。谢谢!
浏览 10
提问于2017-08-03
得票数 11
回答已采纳
1
回答
如何对iOS上的音频输入进行实时音节计数?
、
、
、
、
我需要能够数出讲话者
在
现场录音中发出的音节数。应该注意的是,说话者不会
使用
他们的母语,因此大多数现有的语音识别解决方案都无法工作。我看了一下
CoreML
,我也许可以用编码的音节数访问语音语料库,但我不确定我将如何开始训练这个
模型
。就天真的解决方案而言,我已经找到了,但我不确定它将如何在Swift
中
实现(这种音频分析不是我的专长)。
在<
浏览 6
提问于2022-11-11
得票数 0
1
回答
如何在不损失精度的情况下将暗网权重转换为
CoreML
模型
?
、
、
、
、
我已经训练了一个YOLOv3-SPP
模型
,我正在尝试将它转换成
CoreML
,这样我就可以
在
我的应用程序中
使用
它了。然而,我似乎找不到一种方法来做到这一点而不损失大量的准确性。我曾尝试将.weights文件转换为Keras .h5文件,然后将其转换为
CoreML
模型
,但在测试h5
模型
时,它似乎无法
在
一些暗网权重完美工作的图片中检测到任何东西。此外,
在
Keras
模型
检测到对象的图片中,(
在
许多情况下)边
浏览 43
提问于2020-01-20
得票数 0
1
回答
如何创建和训练用于核心ML的神经
模型
、
有许多第三方提供经过培训的
模型
。 但如果我想自己创造一个
模型
呢?我如何做到这一点,我可以
使用
什么工具和技术?
浏览 1
提问于2017-06-19
得票数 19
4
回答
“
使用
无法解析的标识符”与CoreMLModel
、
、
、
对于一些背景知识:我
使用
Swift 4和Xcode 9 (beta)。然而,我正在尝试
在
我的应用程序
中
为这行代码实现一个
CoreML
模型
(它被放在我的ViewController类的IBAction函数
中
):我得到一个错误,说“
使用
未解析的标识符'testmodel2'”。
浏览 1
提问于2017-07-07
得票数 3
7
回答
如
何用
Tensorflow将训练后的
模型
转换为核心ML
、
有一个将经过训练的
模型
转换为核心ML格式(.mlmodel)。 是否可以用Tensorflow转换Core
模型
?多么?
浏览 1
提问于2017-06-15
得票数 3
回答已采纳
1
回答
CoreML
视觉人脸检测的输入图像大小要求是什么
、
、
、
、
我正在
使用
Vision框架来检测图像
中
的人脸。我
在
苹果的文档
中
找不到输入图像的要求是什么。通常,
在
使用
机器
学习
模型
时,尤其是
在
使用
CoreML
中
的.mlmodel时,它会描述所需的输入。
浏览 13
提问于2019-09-17
得票数 0
7
回答
船运后
CoreML
模型
的连续训练
、
、
在
查看新的
CoreML
API时,我看不到在生成.mlmodel并将其打包到应用程序之后继续训练
模型
的任何方法。这使我认为我无法对用户的内容或操作执行
机器
学习
,因为
模型
必须事先完全经过培训。有什么方法可以增加培训数据到我的培训
模型
后发货吗? 编辑:我刚刚注意到您可以从URL初始化生成的
模型
类,所以也许我可以将新的培训数据发布到服务器上,重新生成经过训练的
模型
并下载到应用程序
中
?这似乎是可行的,但这完全违背了用户<em
浏览 9
提问于2017-06-09
得票数 19
回答已采纳
1
回答
没有softmax的图像分类器
、
我
使用
Turi Create生成一个Core ML图像分类器,如下所示:data = tc.SFrame('data.sframe')model.export_
coreml
('classifier.mlmodel') 然而,
模型
给了我softmax置信度值,
在
我的应用程序
中
,我需要之
浏览 3
提问于2018-03-08
得票数 2
1
回答
如何求瞳孔中心与镜框边缘的距离
、
、
、
、
我正在尝试测量瞳孔中心和眼镜框底部顶部边缘之间的实际距离,
如
照片中所示: ? 我正在
使用
ARKIt,并且
使用
faceAnchor.leftEyeTransform和faceAnchor.rightEyeTransform,我能够可靠地获得每个人的瞳孔中心。所有在线参考都指向
使用
ARKit检测平面,这似乎不适用于这种情况。这绝对可以做到,因为我已经看到iOS应用程序做到了这一点。
浏览 21
提问于2020-04-13
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
从仿真模型到预测模型——机器学习在项目开发中的应用
Oracle开源Graphpipe:简化机器学习模型在框架中的部署
机器学习模型在携程海外酒店推荐场景中的应用
在 Azure 机器学习工作室中创建文本分析模型
机器学习在启动耗时测试中的应用及模型调优(一)
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券