集成iOS设备相机和动作功能,在您的应用或游戏中产生增强现实体验。
SDK
一个增强现实(AR)描述了用户体验,从设备的摄像头的方式,使这些元素似乎居住在现实世界中添加2D或3D元素到实时取景。ARKit结合了设备运动跟踪,摄像机场景捕捉,高级场景处理和显示便利性,简化了构建AR体验的任务。您可以使用这些技术使用iOS设备的后置摄像头或前置摄像头创建多种AR体验。
最常见的AR体验类型显示来自iOS设备的后置摄像头的视图,并通过其他可视内容进行扩充,为用户提供了一种查看周围世界并与之交互的新方式。
ARWorld Tracking Configuration
提供这种体验:ARKit映射和跟踪用户所居住的真实世界空间,并将其与坐标空间相匹配,以便您放置虚拟内容。世界跟踪还提供使AR体验更具沉浸感的功能,例如识别用户环境中的对象和图像以及响应真实世界的光照条件。
注意
您可以在用户的真实环境中显示3D对象,而无需构建自定义AR体验。在iOS 12中,当您在应用程序中使用USDZ文件时,系统会为3D对象提供AR视图,或者在Web内容中使用带有USDZ文件的Safari或WebKit。QLPreview Controller
在iPhone X上,ARFace Tracking Configuration
使用前置TrueDepth相机提供有关用户脸部姿势和表情的实时信息,供您在渲染虚拟内容时使用。例如,您可以在摄像机视图中显示用户的面部并提供逼真的虚拟遮罩。您还可以省略摄像机视图并使用ARKit面部表情数据为虚拟角色设置动画,如iMessage的Animoji应用程序中所示。
确保您的应用可以使用ARKit并尊重用户隐私。
一个共享对象,用于管理增强现实体验所需的设备摄像头和运动处理。
AR会话配置的抽象基类。
用于显示增强使用3D SceneKit内容的摄像机视图的AR体验的视图。
用于显示增强使用2D SpriteKit内容的摄像机视图的AR体验的视图。
通过渲染摄像机图像并使用位置跟踪信息来显示叠加内容,从而构建自定义AR视图。
创建AR体验,允许用户使用设备的后置摄像头探索周围世界中的虚拟内容。
创建运行AR会话的应用程序,并使用平面检测使用SceneKit放置3D内容。
发现支持概念,功能和最佳实践,以构建出色的AR体验。
class ARWorldTrackingConfiguration
使用后置摄像头的配置,跟踪设备的方向和位置,并检测真实世界的表面,以及已知的图像或对象。
有关在世界跟踪AR会话中检测到的真实世界平面的位置和方向的信息。
class AREnvironmentProbeAnchor
在世界跟踪AR会话中为特定空间区域提供环境照明信息的对象。
按照以下示例和人机界面指南 > 增强现实,构建引人注目的直观AR体验。
通过提供清晰的反馈,从中断中恢复以及恢复以前的会话,使您的AR体验更加强大。
遵循AR体验中的视觉反馈,手势交互和逼真渲染的最佳实践。
了解Apple如何为WWDC18构建精选演示,并获得使用ARKit,SceneKit和Swift制作自己的多人游戏的技巧。
使用MultipeerConnectivity框架在附近设备之间传输ARKit世界地图数据,为AR体验创建共享基础。
保存并加载ARKit世界地图数据,以允许用户在相同的真实环境中返回之前的AR体验。
来自世界跟踪AR会话的空间映射状态和锚点集。
在用户环境中使用已知的2D图像来增强世界跟踪AR会话。
检测用户环境中的已知2D图像,并使用其位置放置AR内容。
在世界跟踪AR会话期间在现实世界环境中识别的图像。
有关在世界跟踪AR会话中检测到的图像的位置和方向的信息。
使用用户环境中的已知3D对象来增强世界跟踪AR会话。
记录现实世界对象的空间特征,然后使用结果在用户环境中查找这些对象并触发AR内容。
在世界跟踪AR会话期间在真实世界环境中识别的3D对象。
有关在世界跟踪AR会话中检测到的真实3D对象的位置和方向的信息。
class ARObjectScanningConfiguration
一种配置,使用后置摄像头收集高保真空间数据,用于扫描3D对象以便以后检测。
通过检查AR会话的设备摄像机视图中的点找到有关真实世界表面的信息。
可用于在AR场景中放置对象的真实世界位置和方向。
支持自定义ARAnchor
子类。
场景中的真实世界对象,ARKit跟踪位置和方向的变化。
具有位置跟踪信息的视频图像作为AR会话的一部分被捕获。
有关AR会话中捕获的视频帧的摄像机位置和成像特征的信息。
与AR会话中捕获的视频帧相关联的估计场景照明信息。
使用iPhone X上的TrueDepth相机创建响应用户脸部和面部表情的AR体验。
使用面部跟踪AR会话提供的信息来放置3D内容并为其添加动画。
class ARFaceTrackingConfiguration
使用TrueDepth相机跟踪用户脸部的移动和表情的配置。
有关在面部跟踪AR会话中检测到的面部的姿势,拓扑和表情的信息。
class ARDirectionalLightEstimate
在面部跟踪AR会话中与捕获的视频帧相关联的估计的环境照明信息。
class AROrientationTrackingConfiguration
使用后置摄像头并仅跟踪设备方向的配置。
class ARImageTrackingConfiguration
使用后置摄像头检测和跟踪已知图像的配置。
使用声音效果和环境声音层创建引人入胜的AR体验。
管理Vision资源以有效执行Core ML图像分类器,并使用SpriteKit在AR中显示图像分类器输出。