WWDC19苹果发布会,谁说程序员不能做设计?SwiftUI、AR 3 、ML 3

在刚刚结束的WWDC发布会中,苹果不仅带来了大家期待已久的 iOS 13,还有3个内容的更新我比较关注,分享给大家。

这一次值得开发者和设计师关注,设计与代码的边界将被打破。设计师再不学点代码,程序员再不学点设计,可能会被 新的、年轻一代的swift开发者取代哦。

01 SwiftUI

这种创新的方法让您用更少的代码,创建更赞的 app。

Swift加入了新的框架SwiftUI,可以直接在Xcode 11中调整UI外观,操作体验类似于Playgrounds。

Swift UI支持实时预览应用,在预览中的更改能够实时反映在编码中,直接在敲代码的时候完成设计。

所见即所得的完成UI设计,而且还无缝对接到代码。在设计开发一个app的工作流中,设计稿、需求文档这一环节都被干掉了,设计师可以直接把设计稿完成,给程序员,程序员不用再为1px复现设计稿而烦恼了。

通过新功能的融入,Xcode让编程更简单,用更少的代码,更加可视化地搭建UI,这次苹果让我们感受到,原来编程可以和keynote一样简单。

02 AR kit3

利用 ARKit 3,新的 RealityKit 框架,还有新的 Reality Composer app 中的非凡进步,轻松制作原型,创造先进前沿的 AR 体验。

从 2017 年苹果 WWDC 上公布 ARKit 作为 AR 开发基础工具到今天,AR 框架的演进速度的确很快。本次带来主要2项新特性。

RealityKit

摄影级的真实渲染,环境和镜头特效

Xcode和iOS中增加AR体验变得更加简单。Xcode强化了易用性,方便用户在 XCode 内进行AR开发。此外,支持调用更多 API 接口。对于开发者来说自由度会更高。

让 AR 内图像渲染更加真实。而且在相机效果和环境光影方面更自然。

尤其值得注意的是,在这一特性支持下,苹果称为 People Occlusion 的技术可以将真人更好地融入 AR 场景中,并且和 AR 世界产生相应的位置、光影关系,这意味着你既可以从摄像头看到的 AR 场景,也能看到真人。

虚拟与现实完美融合,是不是想立马试试?

在发布会上,微软还带来了Minecraft的AR版,《Minecraft Earth》,将于今年正式发布,届时我们将能亲身体验不同于《Pokémon GO》的 AR 游戏乐趣。

Reality Composer

是一个方便开发者开发AR的工具

现在提供测试版,我们可以在苹果官网申请下载。此APP仅在iOS 13以上可运行。

AR开发必备文档:

https://developer.apple.com/augmented-reality

03 机器学习

无需机器学习的专业知识,使用 Core ML 3 和新的 Create ML app,轻松创建、训练并部署机器学习模型。

包括新的机器视觉、自然语言处理、语音识别

04 踩坑指南

正好这阵子在用swift、ARkit、Core ML开发app ,回头可以不定期更新踩坑指南。范围涉及设计及代码,再加点AI算法。同时mixlab无界社区新开一个相关的微信群,及知识星球。

你是那个关注swiftUI、AR,及机器学习的设计师+程序员吗?

原文发布于微信公众号 - 无界社区mixlab(mix-lab)

原文发表时间:2019-06-04

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

扫码关注云+社区

领取腾讯云代金券