前言
9月13号凌晨、苹果秋季发布会刚刚在苹果总部的乔布斯剧院落下帷幕。本次大会苹果发布了 6 款产品,除了高耸入云的售价之外,最亮眼的,是3款手机都搭载的史上性能最强大的智能芯片A12。
本文经 人工智能产业技术创新联盟 授权转载,转载请联系出处
文章编辑:小雨
9月13号凌晨、苹果秋季发布会刚刚在苹果总部的乔布斯剧院落下帷幕。本次大会苹果发布了 6 款产品,除了前期被曝光的三款新iPhone之外,还有两款“全面屏”手表Apple Watch Series 4、和黑色款HomePod。
除了高耸入云的售价之外,最亮眼的,是3款手机都搭载的史上性能最强大的智能芯片A12。A12芯片配合神经网络引擎,可以极大的提升AI相机的能力。
通俗一点的说,就是A12芯片让iPhone的相机拥有了人工智能,也正是因为人工智能的加持,很多专业摄影师手持iPhone就能够排出很棒的照片。比如下图:
苹果在新的系统中,还加入了智能HDR机制,在启用HDR机制的时候拍照,AI可以识别出不同景物所应在的景深位置(物体到被拍主体的距离),智能调节虚化效果。
AI会对照片进行智能分析,然后将不同参数下拍摄的照片的部分区域取样,合为一张完整的HDR照片。于是拍出的照片因为有了背景虚化的缘故,显得比一般的傻瓜相机更好看。
苹果称现在人像虚化模式可以在拍摄后调节照片的虚化程度,其实和现有的很多Ps软件功能差不多。而苹果相机的优势在于,本身在相机里已经有了原始照片的各项参数,调节起来更方便。如果是同时在手机上处理一张外部导入的照片,可能AI相机和Ps软件效果差距不会太大。
那么AI是怎么区分开你的大脸和背景物体的呢?
在AI领域中,机器视觉领域中大家最熟知的就是人脸识别技术。其实现很多技术都会用到机器视觉,比如用机器识别手写的文字等。
对于机器来说,只要有足够神经网络层数和训练数据,它是可以识别很多东西的。所以在一张照片中,机器视觉既可以识别人脸,也可以识别人脸之外的背景中的物体。
下面我们就拿一张现有的例子来解释一下,iPhone如何让一张自拍照片变得更好看。
首先在启用相机取景的时候,AI已经开始通过神经网络引擎计算取景器中内容的各项参数,比如曝光,景深等等。在我们按下拍照的一瞬间,A12芯片和神经网络引擎就开始干活了。
首先是拍摄主题也就是人像,在最终生成的照片中,人像的处理是最多的。因为上图是背光拍摄,所以饱和度、对比度、曝光细节、磨皮的调节都在这部分区域(不调节脸会黑很多)。
然后是照片中的(2)部分,这部分区域距离拍摄主体较远,所以在虚化程度上要稍微轻一些。最后是照片中的(1)部分,是距离拍照主体最远的部分,所以在最终生成的照片中,这部分是虚化程度最严重的。
需要注意的是(1)(2)两部分背景并不是规则区域,所以需要AI来切割分析,这就比普通的Ps软件要高级一些,普通的软件只能提供固定形状的虚化,这就会出现本来是(2)区域的景色却错误得应用了最严重的虚化处理。
最后的最后,有两条秘方送给各位自拍的同学,第一是如果可以的话尽量在背景宽广,景物远近分布均予的地方拍摄,即使是一般的拍照软件虚化的效果也会很好,第二条就是一定要用后置摄像头。