首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Xcode 10/Swift中的Vision API没有检测到任何东西。我是不是做错了什么?

Xcode 10是苹果公司开发的集成开发环境(IDE),用于开发iOS和macOS应用程序。Swift是一种由苹果公司开发的编程语言,用于开发iOS、macOS、watchOS和tvOS应用程序。

Vision API是苹果提供的一个图像分析框架,可以用于图像识别、面部识别、文本识别等任务。当在Xcode 10中使用Vision API时,如果没有检测到任何东西,可能是由于以下几个原因:

  1. 图像质量问题:Vision API对图像质量要求较高,如果图像模糊、光线不足或者角度不合适,可能会导致无法检测到任何东西。建议确保提供给Vision API的图像质量良好。
  2. 数据集问题:Vision API的检测功能是基于机器学习算法的,需要有足够的训练数据来进行准确的检测。如果使用的数据集不够全面或者不够准确,可能会导致无法检测到目标物体。建议使用经过充分训练和验证的数据集。
  3. 参数设置问题:在使用Vision API时,可能需要设置一些参数来适应具体的应用场景。如果参数设置不正确,可能会导致无法检测到目标物体。建议仔细查阅Vision API的文档,了解各个参数的作用和设置方法。
  4. 代码逻辑问题:检查代码中是否存在逻辑错误或者遗漏,例如未正确调用Vision API的相关方法、未正确处理返回结果等。建议仔细检查代码逻辑,确保正确调用和处理Vision API。

如果以上方法都没有解决问题,可以尝试以下步骤:

  1. 更新Xcode和Swift版本:确保使用的是最新版本的Xcode和Swift,以获得最新的功能和修复的bug。
  2. 查阅官方文档和示例代码:阅读苹果官方提供的文档和示例代码,了解如何正确使用Vision API,并参考示例代码进行调试和排查问题。
  3. 提问社区:在苹果开发者社区或其他相关技术社区提问,描述具体的问题和尝试过的解决方法,寻求其他开发者的帮助和建议。

腾讯云相关产品和产品介绍链接地址:

  • 腾讯云图像识别(https://cloud.tencent.com/product/imagerecognition)
  • 腾讯云人脸识别(https://cloud.tencent.com/product/faceid)
  • 腾讯云机器学习平台(https://cloud.tencent.com/product/tiia)
  • 腾讯云开发者工具(https://cloud.tencent.com/product/devtools)
页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

一篇文章看懂iOS 11 SDK所有新特性与功能

如果你不是很熟悉机器学习的话,想我可以在这里“僭越”地一些简介。...Core ML 将使用模型门槛降低了很多。 Core ML 在背后驱动了 iOS 视觉识别的 Vision 框架和 Foundation 语义分析相关 API。...AR 可以说并非什么新技术,像是 Pokémon Go 这样游戏也验证了 AR 在游戏上潜力。不过除了 IP 和新鲜感之外,个人认为 Pokémon Go 并没有资格代表 AR 技术潜力。...虽然不知道是不是由于换成了 Swift 4,不过正在做公司项目的总编译时间从原来三分半缩短到了两分钟半左右,可以说相当明显了。...由于 Swift 4 编译器也提供了 Swift 3 兼容 (在 Build Setting 设置 Swift 版本即可),所以如果没有什么意外的话,可能会在之后日常开发中使用 Xcode 9

1.3K70

教程 | 如何使用Swift在iOS 11加入原生机器学习视觉模型

想知道如何将苹果API 集成自己应用程序吗?这可比想象更容易。 ?...当你将.mlmodel 文件拖动至应用程序时,Xcode 便会为其自动创建 Swift 封装。一些模型文件大小可以达到几百 Mb。...这是在使用 Xcode 9 测试版时,短时间内所发现许多 bug 之一。 ? 苹果公司还凭借 Core ML 模型推出了自己机器视觉 API,并命名为 Vision。...Vision 包含了许多不同机器视觉模型,它们可以检测人脸、条形码、文本等多种类型,还为基于图像 Core ML 模型提供了包装器。其中一些包装器专属于特定类型模型。...最后一个代码块只需接受请求结果并将其打印出来。在这个演示没有设置任何「预防差错」措施,所以一旦出现问题,整个应用程序便会崩溃。

2.2K50

苹果新推出CoreML怎么用?有哪些bug?这里有一份教程

当你把.mlmodel格式文件拖进App时,Xcode会为它自动创建Swift wrapper。一些这样模型文件大小可超几百兆。...为了支持Core ML模型,苹果也推出了自己机器视觉API,并命名为Vision。...Vision包含了许多不同机器视觉模型,它们可以检测人脸、条形码、文本等多种类型,还提供基于图像Core ML模型wrapper。...在这个Demo没有设置出错时提醒之类机制,所以一旦出现了错误,整个程序就会崩溃。 另一个影响项目的大bug是将文件拖放带项目导航器中发生。...如果模拟器无法启动,你需要先退出模拟器和Xcode。 以上就是带来iOS 11轻松使用机器学习示例项目。苹果链接其他三个模型应该都与VNCoreMLRequest兼容。

1.4K70

Swift 周报 第三十九期

当在 Xcode 时间线查看时,几乎所有时间都花在“Emitting Module”阶段。 在干净构建中,时间从约 56 秒缩短约 1440 秒。...如果当时观看 Activity Monitor, CPU swift-frontend 进程在此期间将保持在 100%。但除此之外似乎没有什么可疑。...比较输出,框架大小几乎相同,没有看到任何其他真正值得注意东西。 关于什么会导致这种巨大差异有什么想法吗?...如果这些步骤任何一个失败,都会发出一条诊断消息,要求该值是一个文字。 这是应该如何工作吗?对于看似常见用例来说,这似乎是一个极其繁琐过程。在这里错过了什么吗?...难道错了什么?是否使用正在构建平台来确定可用性,而不是目标平台? 回答 这里问题是 #if 块是 IfConfigDeclSyntax,而不是表达式。

22320

2020 年,苹果 AI 还有创新吗?

Vision 框架来这些事情。...让我们快速看看这里有什么新东西。 Vision 计算机视觉框架 Vision 增加了很多新功能。 Vision 已经有了人脸、人脸特征和人体检测模型。...Turi Create:基本上是 Create ML Python 版本,虽然它看起来仍在维护,但最近似乎没有得到很多人喜爱。 让我们具体看一下这些 API 都提供了什么新特性。...很高兴,我们不需要再通过 ONNX 转换 PyTorch 模型了! Vision 新提供了一堆很酷东西。很高兴苹果添加视频分析功能。虽然可以在每个视频帧上单独运行 ML,但这样会忽略时间维度。...至于 训练……不知道为什么我们需要 7 种不同 API认为,在新 API 解决所有问题之前,苹果公司不会弃用旧 API

1.1K40

Swift 2.0 简要介绍

Error Handling 程序总会出错,当函数出错时,如果能找出哪里出错了,有助于理解为什么会失败。...这就是为什么我们要包含最后一个不带任何匹配模式 catch 如果你想学习更多关于 Swift 错误处理,推荐你去读 Apple 官方文档 No More println...是不是很美妙 O(∩_∩)O~~ Availability Checking 每个开发者都要构建 App 时候都要和不同 iOS 版本斗争。...Summary 希望你能很高兴地去阅读一下 Swift 2 官方简介,这里有很多这篇文章没有提到内容,比如 Markdown 格式注释等,你也可以去观摩 WWDC 视频...你可以下载这篇文章 Playground file 代码,请确保用 Xcode 7 运行哦,因为这是唯一支持 Swift 2.0 Xcode 版本。

75400

深度学习图像识别项目(下):如何将训练好Kreas模型布置到手机

对于熟悉Xcode的人来说,这一步没有什么困难,但对于我来说,必须使用在线资源学习(不是移动专家,而且已经很久没有使用Xcode了) 。...Swift应用程序,(5)编写Swift代码以对摄像头进行帧推断,(6)部署iPhone!...08:36 xcode …你会看到 pokedex .mlmodel,它可以直接导入Xcode(我们将在下一节第4步中继续这样)。...然后,使用上篇文章代码重新训练模型。background类由从系统上UKBench数据集中随机抽取250个图像组成。 在Xcode创建一个Swift + CoreML深度学习项目 ?...借助Vision框架,可以执行人脸检测,面部标志检测,条形码识别,特征跟踪等。 现在我们已经导入了相关框架,下一步创建 ViewController 类(从一个文本标签开始): ?

5.3K40

实战 | 手把手教你用苹果CoreML实现iPhone目标识别

这篇文章介绍了通过苹果最新API把YOLO模型集成APP两种方法。...将其拖放到Xcode项目中 http://machinethink.net/blog/ios-11-machine-learning-for-everyone/) 在我们案例Xcode已经生成了TinyYOLO.swift...但是目前,Vision没有为这个Core ML模型返回任何东西猜测是,在当前测试版不支持非分类器。 所以现在我们别无选择,只能跳过Vision并直接使用Core ML。...在之前YOLO帖子,我们创建了一个转换脚本,将批量归一化参数“折叠”成卷积层权重。必须这样,因为Metal没有批量归一化层。...没有什么大惊喜,因为核心ML底层使用Metal。 注意:运行这些类型神经网络会消耗很大电量。这就是为什么演示应用程序限制运行模型频率。

4K80

Swift入门: 数据类型

字符串可以是长(例如一百万个字母或更多)、短(例如10个字母)甚至是空没有字母),这无关紧要:它们在Swift眼中都是字符串,工作原理都是一样。...它意思是,“不知道name是什么数据类型,因为你没有给我足够信息。”...此时,您有两个选项:要么创建变量并在一行代码为其提供初始值,要么使用类型注释(type annotation),在这里您可以告诉Swift该变量稍后将保持什么数据类型,即使您现在没有为其提供值。...请注意,String和Int开头都有大写字母,而name和age则没有,这是Swift标准编码约定。编码约定对Swift来说是无关紧要(你可以写自己喜欢名字!)但对其他开发者来说确实很重要。...我们说过经度应该等于-86.783333,但在结果窗格,您将看到-86.78333——它在末尾缺少了一个3。现在,你可能会说,“0.000003有什么关系?”但这很好地证明了所说准确性。

79710

肘子 Swift 周报 #021 | 拥抱 AI,和 Apple Car 说再见

作为长期使用苹果产品用户,对于苹果进军汽车行业举动始终持有保留态度。曾自问:苹果能否成功制造汽车?它们制造汽车能否具有足够独特性来吸引消费者?...作者建议 Apple 应在 Xcode 增强对推断执行上下文显示,明确标示代码是运行在主执行者、其他执行者还是全局协作池上,以此来降低 Swift 并发编程复杂性,提升代码逻辑透明度和易理解性。...Sharing state in the Composable Architecture[10] Point-Free[11] 在先前 Composable Architecture(TCA)版本,...这一私有 API 虽然未公开文档,但已被众多知名应用验证其安全性,并在生产环境得到广泛应用。...Noah Martin 在本文中展示了如何利用此 API 开发 SnapshotPreviews[16] 框架,该框架能够将 Xcode 预览转化为图像快照,进而支持将自动化快照测试集成进拉取请求,为应用开发提供了高效测试解决方案

7310

Swift 周报 第三十一期

周报精选 新闻和社区:Apple Vision Pro 和 visionOS 撼世登场 提案:移除由属性包装器引起 Actor 隔离推断 Swift 论坛:为什么只能将结构附加到数组一次 推荐博文:Swift...此外,为了向用户提供额外隐私保护,如果 App 引用 API 可能会被用于指纹识别(在 App Store 中被禁止一种做法),现在需要选择合理原因来解释为什么使用此 API 并在隐私清单声明已使用此...目前大多数提案只提到主分支中有一个功能可用,尽管大多数时候该功能都在 Swift.org 上可用开发快照 - 下载 Swift 对于新手来说了解这一点并不是那么微不足道,有时还有一个提案审查期 甚至在没有工作快照情况下启动...为什么要这样?这就是想要弄清楚。...宏目标不应链接到应用该目标包含代码。 提问哪个 Apple Networking Api 用于 UDP 多播和单播?[10] 一般而言,iOS 开发和网络新手。

15920

Vision Pro 有望 2 月上市| Swift 周报 issue 44

随后有关 Vision Pro 生产消息不断传出,今年 9 月,立讯精密董事长王来春曾透露,公司正在为明年初上市苹果头显 Vision Pro 生产准备。...没有观察交换,并且操作系统保持响应。 如果没有内存限制,随着时间推移,Swift 往往会消耗所有可用内存,从而影响包括 SSH 在内其他进程,并需要重新启动系统来中断。...该测试涉及重复创建嵌套结构实例(从 0 999),尽管类型化 init 方法需要类型推导,但它在多个 Xcode 版本始终比 .init 方法慢。...这种差异很明显,Xcode 15.2 .init 方法速度是原来两倍多。 用户对观察性能差异感到困惑,因为类型化 init 方法应该推断类型,通常会导致更快执行。...为了有效地表达这些算法,使用像 RangeSet 这样类型变得至关重要。 考虑这些算法更广泛必要性,LSG 发现包含 RangeSet 等专门集合以提高 API 效率更为明智。

6400

Swift 热重载

包括: 重新启动它(或将其部署设备) 导航您在应用程序先前位置 重新生成您需要数据。 如果您只需要做一次的话,听起来还不错。...已经用了十多年了。 从今天开始,您想每周节省多达 10 小时工作时间吗?...跟踪工作一个多月,对来说,每天节省了 1-2 小时。 坦白地说,如果每周节省10个小时开发时间都不能说服您去尝试,那么认为任何方法都不能说服你。 其他平台在做什么?...注入现在允许你更改 PaneAView 任何东西,除了它初始化API。这些变化将立即反映在你应用程序。 ---- 一个更具体例子?...如果您切换到我们 TCA 分支(我们保持最新),你可以在 UI 和 TCA 层上使用 Inject 。 它有多可靠? 没有什么是完美的,但我已经使用它十多年了。

1.9K20

Swift 2.0 简要介绍

在今年 WWDC 上 Apple 推出了 Swift 2,很幸运能参加这次 WWDC 大会,下面分享一些新版 Swift 更新。...Error Handling 程序总会出错,当函数出错时,如果能找出哪里出错了,有助于理解为什么会失败。...这就是为什么我们要包含最后一个不带任何匹配模式 catch 如果你想学习更多关于 Swift 错误处理,推荐你去读 Apple 官方文档 No More println...是不是很美妙 O(∩_∩)O~~ Availability Checking 每个开发者都要构建 App 时候都要和不同 iOS 版本斗争。...Summary 希望你能很高兴地去阅读一下 Swift 2 官方简介,这里有很多这篇文章没有提到内容,比如 Markdown 格式注释等,你也可以去观摩 WWDC 视频

67620

Swift入门:扩展

扩展允许我们以一种非常干净方式修改Swift数据类型以添加新功能——我们新代码与现有代码没有区别。 让我们从一个扩展开始,它将一个扩展添加到一个整数。...是的,意识是+=1,我们从最简单开始。首先,添加此整数: var myInt = 0 extension Int告诉 Swift 我们想为其Int结构体添加功能。...Xcode真正意思是,默认情况下,Swift不允许您在扩展修改self。原因是我们可以使用5.plusOne()来调用plusOne(),显然您不能将数字5修改为其他含义。...如果您发现自己经常用字符串修剪空格,您可能会厌倦使用这种怪诞功能: str = str.trimmingCharacters(在:.whitespacesAndNewlines) …所以为什么不做这样扩展...trim() { self = trimmingCharacters(in: .whitespacesAndNewlines) } } 您可以根据需要扩展任意数量,尽管将不同功能分隔单个文件是一个很好做法

1.1K10

AppleCore ML3简介——为iPhone构建深度学习模型(附代码)

喜欢这个工具地方是,你可以拖放你训练数据,选择你想要模型类型(语音识别,对象检测等),它会自动开始训练模型! 下面是一个训练猫狗图像分类器例子: ?...请注意,只编写了两行代码并拖拽训练数据目标文件夹,其余部分都由CreateML负责! Turi Create可以在Python工作,而我们可以使用CreateML在Mac上构建程序。...并且它支持在GPU上进行训练 3)用于TensorFlowSwift Swift for TensorFlow有一个灵活、高性能类似于TensorFlow/PyTorchAPI来构建复杂神经网络架构...这表示要测试模拟器目标设备 让我们先运行我们应用程序,看看会发生什么。点击左上角播放按钮,模拟器就会运行。 你看到了什么? ? 目前,我们应用程序还不了什么。...选择默认选项,然后点击“Finish” 当我们将这样文件拖放到Xcode时,它会自动创建对该文件引用。通过这种方式,我们可以轻松地在代码访问该文件 以下是整个流程供参考: ?

2K20

怎么上架(含隐藏开关)马甲包

5、审核流程到底是什么样子?       6、审核App是GG还是MM,の这个就是我们乱扯......      ...针对上面的这些问题,用自己收集信息再加上自己判断说一些上面的这些问题:       1、App Store中国区审核是在美国,不在中国!       ...有些翻译会比较难理解,如果你中文在写一遍能帮助审核人员正确理解你意思!       2、审核时间是不是和我们上班时一样?      ...关于这个问题,直接给出回答就是错了,团队真的不大,很有可能你就两次装车同一个人手里,关于这个问题再给大家看一篇比较有说服力文章,可以很好帮你解决这个疑问!...修改 xxx.xcassets 文件夹 png 资源文件名。 删除代码所有注释和空行。 用 Xcode 打开工程并配置参数。

2.3K100

初试 iOS 11 新框架:Vision Framework 让文字检测变得更容易

Vision Framework 可以让你 App 执行许多强大功能,例如识别人脸范围及脸部特徵(微笑、皱眉、左眼眉毛等等)、条码检测、分类出图像场景、物件检测及追踪以及视距检测。...或许那些已经使用 Swift 开发程序一段时间的人会想知道既然已经有了Core Image 及 AVFoundation,为什么还要推出 Vision 呢?...on Core ML 在本次教学,我们将会利用 Vision Framework 来作出文字检测功能,并实作出一个能够检测出文字 App ,不论字体、字型及颜色。...然而,因为我们还没实作 Vision Framework,所以还没有文字检测功能。而这就是我们接下来要完成部份。...首先,我们移除 imageView 最底层图层(如果你有注意,我们先前添加了许多图层 imageView 。)

2.4K40
领券