首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

行业资讯|苹果发布ARkit 3、RealityKit和Real

北京时间6月4日凌晨,苹果召开了2019年WWDC开发者大会。作为2小时keynote的压轴环节,苹果发了布ARKit 3.0和两个新的AR开发工具:RealityKit和Rreality Composer.

ARKit 3新增了六项功能:

人体遮挡:通过对人体的识别,ARKit可以把3D对象放置到人物的面前或者身后,使得AR体验更加身临其境,同时在几乎任何环境中都能实现绿幕效果。

动作捕捉:使用一台摄像头实时捕捉人的动作。通过将身体位置和运动识别为一系列关节和骨骼,开发者可以把运动和姿势输入,融合到自己的AR内容中。

前后摄像头同时开启:现在,开发者可以在前后摄像头上同时使用面部和世界跟踪,从而开辟新的可能性。例如,用户可以仅使用他们的脸部与后置摄像头视图中的AR内容进行交互。

多面部跟踪:现在,ARKit Face Tracking可以同时跟踪三张脸,使用iPhone X,iPhone XS,iPhone XS Max,iPhone XR和iPad Pro上的TrueDepth摄像头为Memoji和Snapchat等前置摄像头提供驱动力。

协作会议:通过多人之间的实时协作会话,可以构建协作世界地图,使开发者更快地开发AR体验,并让用户进入多人游戏共享AR体验。

其他更新:一次最多可检测100张图像,并自动估算图像的物理尺寸。3D对象检测更加稳健,因为在复杂环境中可以更好地识别对象。现在,机器学习可以更快地检测环境中的平面。

RealityKit是一个高级框架,开发人员能够轻松地将虚拟对象与真实环境混合,自动扩展以在多个苹果设备上正常运行,并处理共享AR体验的网络需求。它支持照片级渲染、新的环境和相机效果,以及其他动画、物理和音频效果。它本身与ARKit集成,并具有Swift API。

Reality Composer允许开发人员构建具有完全AR支持的交互式场景,并包含数百个虚拟对象,并能够导入和自定义USDZ文件。                      场景中的虚拟对象可以设置动画,并设置点击、接近和其他触发器。                                     开发人员将能够在XCode和iOS应用程序中运行Reality Composer。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20201023A09IUA00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券