首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Vision + ARKit对象跟踪不返回任何结果

Vision + ARKit是苹果公司提供的一套开发工具,用于在iOS设备上实现增强现实(AR)应用程序的开发。其中,Vision是苹果的图像处理框架,用于图像识别和分析,而ARKit是苹果的增强现实框架,用于在现实世界中叠加虚拟内容。

对象跟踪是AR应用中的一个重要功能,它可以识别和跟踪现实世界中的物体,并在其上叠加虚拟内容。然而,当使用Vision + ARKit进行对象跟踪时,如果没有返回任何结果,可能有以下几个可能的原因:

  1. 物体不在识别库中:Vision + ARKit需要提前建立一个物体识别库,其中包含要跟踪的物体的特征信息。如果要跟踪的物体不在识别库中,系统将无法返回任何结果。
  2. 物体不在视野范围内:对象跟踪需要通过设备的摄像头来获取实时图像,并在图像中寻找要跟踪的物体。如果物体不在设备的视野范围内,系统将无法返回任何结果。
  3. 光线条件不佳:对象跟踪对光线条件有一定要求,如果环境光线太暗或太亮,可能会影响系统对物体的识别和跟踪能力。

为了解决这个问题,可以尝试以下方法:

  1. 确保物体在识别库中:在使用Vision + ARKit进行对象跟踪之前,需要将要跟踪的物体的特征信息添加到识别库中。可以使用Vision框架提供的API来创建和管理识别库。
  2. 调整设备的视野范围:确保设备的摄像头可以看到要跟踪的物体。可以尝试调整设备的位置或角度,以便将物体置于摄像头的视野范围内。
  3. 改善光线条件:确保环境光线适中,不要太暗或太亮。可以尝试在光线较暗的环境中使用闪光灯或增加额外的光源,以改善物体的可见性。

腾讯云提供了一系列与云计算相关的产品和服务,其中包括人工智能、物联网、存储等领域。您可以访问腾讯云官方网站(https://cloud.tencent.com/)了解更多关于这些产品和服务的详细信息。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

iOS ARKit教程:用裸露的手指在空中画画

为了实现前者,ARKit假设您的手机是在真实3D空间中移动的相机,因此在任何点丢弃一些3D虚拟对象将锚定到真实3D空间中的该点。对于后者,ARKit会检测水平平面,如表格,以便您可以在其上放置对象。...检测用户的指尖 Apple在iOS 11中引入的一个很酷的库是Vision Framework。它以非常方便和有效的方式提供了一些计算机视觉技术。特别是,我们将使用对象跟踪技术来实现增强现实教程。...对象跟踪的工作原理如下:首先,我们为它们提供一个图像和一个正方形的坐标,用于我们想要跟踪对象的图像边界。之后我们调用一些函数来初始化跟踪。...最后,我们输入一个新图像,其中该对象的位置发生变化,并且前一个操作的分析结果也是如此。鉴于此,它将返回对象的新位置。 我们将使用一个小技巧。...iOS ARKit Vision库检测到的要素点 我们将按照以下步骤初始化缩略图跟踪: 上面最棘手的部分是如何将点击位置从UIView坐标空间转换为图像坐标空间。

2.2K30

ARKit

了解ARKit中的世界跟踪 发现支持概念,功能和最佳实践,以构建出色的AR体验。...创建持久的AR体验 保存并加载ARKit世界地图数据,以允许用户在相同的真实环境中返回之前的AR体验。 class ARWorldMap 来自世界跟踪AR会话的空间映射状态和锚点集。...物体检测 使用用户环境中的已知3D对象来增强世界跟踪AR会话。 扫描和检测3D对象 记录现实世界对象的空间特征,然后使用结果在用户环境中查找这些对象并触发AR内容。...protocol ARTrackable 场景中的真实世界对象ARKit跟踪位置和方向的变化。 相机和场景细节 class ARFrame 具有位置跟踪信息的视频图像作为AR会话的一部分被捕获。...使用ARKit实时使用Vision 管理Vision资源以有效执行Core ML图像分类器,并使用SpriteKit在AR中显示图像分类器输出。

2.2K20
  • iOS ARKit教程:赤手在空中绘画

    检测用户的指尖 苹果在iOS 11中引入的一个很酷的库是Vision Framework。它以相当方便和有效的方式提供了一些计算机视觉技术。特别是,我们将使用对象跟踪技术。...对象跟踪的工作原理如下:首先,我们为图像边界中的一个正方形的图像和坐标提供我们要跟踪对象。之后,我们调用一些函数来初始化跟踪。...最后,我们提供了一个新的图像,其中该对象的位置改变了以及之前操作的分析结果。鉴于此,它将为我们返回对象的新位置。 我们要用一个小技巧。...我们如何跟踪Apple Vision库的对象? Apple Vision库允许开发人员跟踪视频流中的对象。...开发人员为他们要跟踪对象在初始图像帧内提供一个矩形的坐标,然后在视频帧中提供矩形,并且该库返回对象的新位置。 我们如何开始使用Apple ARKit

    1.8K10

    苹果ARKit稳不稳?Nexus Studios用Cardboard来测试它的跟踪技术

    这个测试说明,ARKit对VR Inside-out定位跟踪技术拥有巨大的潜力。 苹果推出了ARKit后,引起AR开发者开启“群嗨”模式,各式各样的AR应用随之而来。...最近一家名为Nexus Studios的公司做了一项脑洞大开的实验,用VR盒子Cardboard测试ARKit跟踪技术。...在实验中,他们先把Tilt Brush的艺术品整个放置在户外环境中,然后让志愿者戴上Cardboard,依靠VR中显示点云数据,来确定现实世界对象的位置。...“这个测试说明,ARKit对VR Inside-out定位跟踪技术拥有巨大的潜力。”...Nexus Studios 的部门负责人 Luke Ritchie表示,“虽然还不能快速移动头部,但跟踪位置能保持正确。” 看来ARKit稳定的跟踪技术可以hold住一些简单的体验。

    58930

    ARKit介绍

    您甚至可以使用Metal,SceneKit和Unity和虚幻引擎等第三方工具渲染3D对象ARKit以卓越的性能完成所有这一切,并且有很好的文档记录。 需要一些想法才能使用ARKit?...,所以我决定使用ARKit创建自己的测量应用程序。 我开始观看介绍ARKit:来自WWDC17的iOS增强现实视频。然后我阅读文档并使用演示应用程序(在增强现实中放置对象)。...如果您没有这些知识或任何3D渲染,如Metal,OpenGL或Unity,那么我建议您在使用ARKit之前查看其中一个,因为它将帮助您理解我将呈现的代码(例如,矢量和矩阵等3D概念以及可以对它们执行的一般操作...这将给出结果向量的长度,它与说明相同:距节点A和节点B的距离。...此方法在摄像机图像中搜索视图坐标中指定点的有效曲面,并返回一个列表,其中命中测试结果的排序距离最近(距离摄像机的距离)。

    2.3K20

    ARKit和CoreLocation:第一部分

    ARKit结合了设备运动跟踪,摄像机场景捕捉,高级场景处理和显示便利性,简化了构建AR体验的任务。 在iOS 11中,Apple已经将ARKit的强大功能释放到了iOS开发社区。...运行会话配置时,ARKit会根据设备的位置和方向创建场景坐标系; ARAnchor您创建的任何对象或AR会话检测到的对象都是相对于该坐标系定位的。 ?...您不一定需要使用ARAnchor该类来跟踪添加到场景中的对象的位置,但通过实现ARSCNViewDelegate方法,您可以将SceneKit内容添加到ARKit自动检测到的任何锚点。...向量,矩阵和线性代数,哦! ? 一个二乘四的矩阵 如果你还记得回到数学课,那么矢量有一个幅度和方向。...地图项目包括地理位置和可能适用于该位置的任何有趣数据,例如该位置的地址和该地址的企业名称。 MKDirections:一个实用程序对象,它根据您提供的路径信息计算方向和行程时间信息。

    2.2K20

    写给开发者的 Vision Pro 评测:易上手,但 UI 设计不够“革命”

    Meta 认为临场感是指“在虚拟世界中,为能够实际联系的对象创造高保真数字表示”。换句话说,Meta 的临场感强调让用户完全沉浸在虚拟世界当中。...考虑到 Vision Pro 对人们隐私的潜在侵犯——毕竟用户需要接受眼部扫描以实现登录和视线跟踪——苹果对开发者施加的限制听起来确实有理有据。...虽然总体而言他也承认这并不是坏事,“毕竟我们也希望广告能通过跟踪视线来判断用户到底看了多久”,但他对苹果“悄悄重构和回避现有网络标准的作法”仍有微词。...3D 内容的构建框架则是 ARKit 和 RealityKit,它们负责处理跟踪、渲染、物理、动画、空间音频等元素。...Tilander 还在会上确认,过程中无需借助任何 Unity 插件,开发者能够直接“将现有内容搬运过来”。

    33220

    ARKit示例 - 第2部分:平面检测+可视化

    一旦我们在本文中完成了平面检测,在以后的文章中我们将使用它们将虚拟对象放置在现实世界中。...正如您所看到的那样,面料具有良好的质感,可以跟踪的大量有趣和独特的功能,每个交叉都是ARKit发现的独特功能。...然而,ARKit使用称为视觉 - 惯性测距的东西以及图像信息ARKit使用设备运动传感器来估计用户转向的位置。这使得ARKit跟踪方面非常强大。...中,您可以通过在会话配置对象上设置planeDetection属性来指定要检测水平平面。...提取结果 下面是我走过房子的一部分,从上面的视频中检测到的飞机的一些屏幕截图: 这是我厨房里的一个小岛,ARKit很好地找到了范围并正确定位了飞机以匹配凸起的表面 image.png 这是一个看着地板的镜头

    2.9K20

    ARKit 简介-使用设备的相机将虚拟对象添加到现实世界中 看视频

    它允许用户与自己的周围环境交互数字对象或角色,以创建独特的体验。 什么是ARKitARKit是Apple的框架,用于处理为iOS设备构建增强现实应用和游戏的处理。...虽然Snapchat使用另一种技术将数字特征放到真实面部,但增强现实已经领先一步,但它现在融合了新的ARKit工具,通过iPhone X的TrueDepth相机增强了脸部跟踪功能。...ARKitARKit可分为3层。这些层同时协同工作。 ? 3Layers 跟踪 跟踪ARKit的关键功能。它允许我们跟踪设备在现实世界中的位置,位置和方向以及现场直播。...场景理解 了解场景意味着ARKit会分析摄像机视图所呈现的环境,然后调整场景或提供相关信息。这使得能够检测物理世界中的所有表面,例如地板或平坦表面。然后,它将允许我们在其上放置虚拟对象。...而且,光估计可以被集成以点亮模拟物理世界中的光源的虚拟对象

    3.6K30

    ARKit示例 - 第3部分:添加几何和物理乐趣

    /tree/part3 命中测试 正如您在第一个教程中看到的,我们可以在任何X,Y,Z位置插入虚拟3D内容,它将在现实世界中渲染和跟踪。...如果光线与任何平面相交,我们得到命中结果,然后我们获取光线和平面相交的3D坐标,并将我们的内容放置在该3D位置。...这个代码非常简单,ARSCNView包含一个hitTest方法,你传递屏幕坐标,它负责通过相机原点从那个点投射3D光线并返回结果: - (void)handleTapFrom: (UITapGestureRecognizer...对于本文,我们将只插入一个简单的立方体,稍后我们将使对象看起来更逼真: - (void)insertGeometry:(ARHitTestResult *)hitResult { float dimension...默认情况下,会话将保持相同的坐标系和找到的任何锚点: // Get our existing session configuration ARWorldTrackingSessionConfiguration

    98010

    使用ARKit开发AR游戏-基础篇:ARKit入门篇

    arkit1.jpg AR设备和SDK AR设备 在相当多的文章中都有涉及,不再赘述,主要是头盔的方式,透明显示将对象叠加到现实世界中。...arkit2.jpg arkit3.jpg arkit4.jpg 移动设备和SDK方案 由移动硬件相机驱动,提供一个“窗口”进入。可以看到现实世界与AR的对象。...对于每一帧,ARKit会将图像与来自设备的运动感应硬件的数据一起分析,以估计设备的现实位置和方向。ARKit以ARFrame对象的形式提供跟踪信息和成像参数。...ARKit SDK分析相机视图中的内容,并根据可识别的功能和估计的深度确定点数。碰撞结果按照与设备的距离进行排序。平面优先于feature point.         ...获取所需结果后,禁用平面检测 平面检测需要的计算量更大。因为放置在场景中的对象不需要一直做平面检测,所以在获得结果以后可以禁用平面检测。

    4.4K51

    ARKit 的配置-在您的AR项目的幕后

    在本节中,我们将看看如何在后面配置提供的ARKit模板。我们将发现什么是世界跟踪和AR会话。同样,我们将学习如何将一些调试选项应用于场景中的指导。...SCENEKIT 如前所述,SceneKit是我们选择的处理3D对象的渲染技术。导入它以使其功能和类受益。 ARKIT 我们需要ARKit来让我们体验增强现实。...没有它,我们将无法跟踪我们的设备在世界上的位置,将我们的虚拟对象放在桌子上,甚至放在房间里。...你能告诉我另一个用于ARKit的流行技术的例子吗?让我给你一个提示:Animoji。这是正确的,它是面部跟踪,如果你第一次购买iPhoneX,你可能会有很多乐趣。...因此,如果您有一个统一的白色或黑色表,您将看不到太多或任何特征点。这应该可以指示平面是否适合放置模型。所以,我建议你添加垫子或其他东西。 ?

    2.5K20

    【机器学习爆款App技术解读】如何用“摄像头秒解数独”

    核心要点:Magic Sudoku = Keras + Vision Lib + CoreML + ARKit ?...这个应用程序的基本流程是: 1)ARKit 从相机获取新的帧; 2)使用 iOS 11 的 Vision Library 检测图像中的矩形; 3)如果找到矩形,确定它们是不是数独; 4)如果发现是数独,...但不幸的是,少数人误解了这个任务,结果数据中掺杂了大量的标记错误的图像。...为了纠正这一点,我又做了第二个工具,显示 100 张图像(都应该是相同的数字),要求用户单击匹配的图像,然后将其重新分类到第一个工具中。 ?...结果比我预期的更好:精度 98.6%!在后续版本中,精度能够提高到 99% 以上。 使用现实世界数据来训练 到那时候为止,我们从书店收集来的数独语料库工作都很好。

    1.5K80

    谷歌增强现实技术ARCore

    ARCore工作原理 要理解ARCore的工作原理,首先需要理解以下的物理概念: 运动跟踪:它利用IMU传感器和设备的相机来发现空间的特征点,由此确定Android设备的位置和方向。...环境感知:虚拟物体一般都是放置于平坦平面上的,用ARCore可以检测物体的水平表面,建立环境认知感,以保证虚拟的对象可以准确放置,然后让您看到放置在这些表面上的AR物体。...光线预测:ARCore根据环境的光强度,使开发人员可以与周围环境相匹配的方式点亮虚拟对象。此外,最近的一个实验发现,虚拟阴影在真实环境光照下的调整功能也是如此,这样就可以使AR物体的外观更为逼真。...两者都是使用现有手机的单个摄像头来感知并跟踪您的手机相对于现实世界的运动,并能调整虚拟物体与现实世界的匹配程度。...不同点 ARKit可以将AR应用程序运行在任何具有A9处理器的iOS 11系统以上,这意味着任何iPhone 6S或更高版本或任何iPad Pro都将能运行这些AR应用程序,但是对Android来说,

    2.1K60

    谷歌增强现实技术ARCore

    ARCore工作原理 要理解ARCore的工作原理,首先需要理解以下的物理概念: 运动跟踪:它利用IMU传感器和设备的相机来发现空间的特征点,由此确定Android设备的位置和方向。...环境感知:虚拟物体一般都是放置于平坦平面上的,用ARCore可以检测物体的水平表面,建立环境认知感,以保证虚拟的对象可以准确放置,然后让您看到放置在这些表面上的AR物体。...光线预测:ARCore根据环境的光强度,使开发人员可以与周围环境相匹配的方式点亮虚拟对象。此外,最近的一个实验发现,虚拟阴影在真实环境光照下的调整功能也是如此,这样就可以使AR物体的外观更为逼真。...两者都是使用现有手机的单个摄像头来感知并跟踪您的手机相对于现实世界的运动,并能调整虚拟物体与现实世界的匹配程度。...不同点 ARKit可以将AR应用程序运行在任何具有A9处理器的iOS 11系统以上,这意味着任何iPhone 6S或更高版本或任何iPad Pro都将能运行这些AR应用程序,但是对Android来说,由于不同厂商的手机型号会有兼容性的问题以及摄像头的不同

    1.5K101

    ARKit示例 - 第4部分:现实主义 - 照明和PBR

    如果我们关闭场景中的灯光并插入一些立方体,您将看到以下结果: 真实世界表面上的两个虚拟立方体,在场景中没有任何光照 现在我们需要为场景添加一些灯光,在3D图形中,可以添加各种不同类型的灯光到场景中: 不同照明模式的示例...听起来不错,但据我所知它没有做任何事情,将其与其他属性设置为各种组合似乎没有做任何事情,不确定这是SDK的这个版本中的错误还是我做错了什么(更有可能),但这并不重要,因为我们可以通过另一种方式获得估计照明...光估计 最后,我们提到了lightEstimation,ARKit可以分析场景并估计环境光强度。它将返回一个值1000,表示低于中性的“中性”值,上面的值更亮。...最后一部分是从ARKit获取光估计值并将其应用于此环境图像的强度。ARKit返回值1000以表示中性光照,因此更小,更暗,更亮。...但在现实世界中,尤其是跟踪,我们知道并非总是如此。

    1.2K30

    我是这样从零开始用深度学习做狗脸识别 iOS App 的

    一些简单的搜索告诉我该学习 TensorFlow 对象检测教程、研究论文,或者如何用现成的代码构建一个有边界框的检测器。...“对象分类”和“对象检测”在今天已经是现成的了。我想要做的不是这些,而是后面这个,在文献中这个词是“特征点检测”(Landmark Detection) ,用术语概括我要做的事情会更方便一点。...跟踪缺陷、识别问题、缩小问题的范围——在一般软件工程中是正常的——在今天的深度学习开发中并不那么容易。 对于像我这样的初学者来说,弄清楚这个问题显得梦幻而偶然,而不是深思熟虑的结果。...通常来说,按照默认规则来做并不是一个好主意。...ARHitTestResult (https://developer.apple.com/documentation/arkit/arhittestresult)表明,通过图片中的像素,它会返回给你像素的三维坐标

    1.3K20

    图像检测-如何通过扫描图像来制造幻觉

    今年,Apple发布了ARKit 2的新功能。其中之一就是图像检测。这是一个非常酷的功能,允许您在用户的环境中跟踪2D图像,并在其上放置增强现实内容。...在本课程中,您将学习如何通过检测您喜欢的任何图像以及如何在呈现模型时更改模型的材质,将您自己的3D模型放置在任何对象之上。...第一个AR项目 如果这是您的第一个ARKit项目,我强烈建议您阅读我们的ARKit简介,因为我们不会在这里介绍基础知识。...dl=0 跟踪图像 现在我们有参考图像的变量并将我们的图像放在文件夹中,让我们跟踪该图像。我们告诉配置跟踪参考图像,这是AR Resources文件夹。...原文: https://designcode.io/arkit-image-detection

    2.4K20

    ARKit 检测图片(类似支付宝扫福字)

    ARKit1.5多了识别图片功能 与常见的第三方相比方便了不少 效果图如下: [image.png] 下面是使用流程 1.在Assets里创建一个AR Resources文件夹(其他名字也可以) 2.把图片放进...AR Resources,然后使用Xcode面板设置识别图像的实际大小 [image.png] 如果设置大小会蹦 不过你没设置大小也会报警告 可以在官网(https://developer.apple.com.../documentation/arkit/arreferenceimage )上找到答案 [image.png] 3.创建一个ARReferenceImage对象,并赋值给世界追踪类的detectionImages...[image.png] 4.然后运行追踪类 [image.png] / **会话将重置跟踪。...ARAnchor *)anchor { ARImageAnchor * imageAnchor = (ARImageAnchor *)anchor; //获取参考图片对象

    1.1K60

    最新iOS设计规范九|10大系统能力(System Capabilities)

    为实现此类体验,您的应用程序提供了一组2D参考图像或3D参考对象ARKit指出了在当前环境中何时何地检测到这些项目中的任何一项。 当检测到的图像第一次消失时,请考虑延迟移除与其相连的虚拟对象。...ARKit不会跟踪每个检测到的图像的位置或方向的变化。为帮助防止虚拟对象闪烁,请考虑等待一秒钟,然后使其淡出或移除。 一次限制使用中的参考图像数量。...处理中断 在中断期间,例如人们短暂切换到另一个应用程序或接听电话时,ARKit无法跟踪设备的位置和方向。中断结束后,先前放置的虚拟对象可能会出现在错误的实际位置中。...不要让其他元素侵犯此空间或以任何方式遮盖字形。 AR徽章 包含产品或其他对象的集合的应用程序可以使用标记来标识可以使用ARKit在AR中查看的特定项目。...避免创建仅启动应用程序而执行任何操作的小部件。人们喜欢小部件是因为它们提供了对有意义内容的即时访问。如果只是通过小部件打开应用程序而没有提供任何附加值,用户大概率会删掉。

    4.3K20
    领券