Google解释Pixel 3是如何靠 AI 改进人像功能的

跟前代相比,Google 今年出的 Pixel 3 系列在处理人像拍摄时的表现要来得更好。考虑到两者用的都是单颗主相机的设计,所以改进大部分还是来源于软件。那说到底,Google 究竟做了些什么让 Pixel 3 的人像算法变得更强?今天他们就决定发文来解释一下。

在 Pixel 2 推出的时候,Google 是利用神经网络和相机上的相位对焦技术(后者主要是跟视差效果有关)来确定拍摄时处于前景的对象。但这套方案在面对变化不大的场景时就容易出错,而且在以小光圈进行拍摄的时候也比较容易发生问题。为了改善这些,Google 在 Pixel 3 上运用了新的神经网络,希望通过对象的常规形状、场景中不同点的清晰度等多项因素,来更准确地判断对象距离。另外在训练这套系统时,Google 也采用了一些创造性的办法。比如说他们曾做出过把五台 Pixel 3 绑在一起的「Frankenphone」,以同步记录深度信息,来消除光圈、视差方面的不足。

看到 Google 在 AI 上投入了那么多的资源,可见他们对单相机方案的决心是多么之大。当然啰,你也可以反过来想。Google 一直坚持这种小众做法的原因,搞不好也是为了探索算法的极限,从而秀出自己在人工智能领域的「肌肉」呢。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181202A0H0GL00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券