首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌出了款能拍星空的手机,却并没人想要它

美国时间10月15日,谷歌发布了已经被泄露完全的新款手机Pixel 4以及Pixel 4XL。

Pixel 4在发布之前,有诸多黑科技的猜测。其中之一,是谷歌引以为傲的神经网络算法,能够更好的捕捉星空,做天文摄影。

也许,这是谷歌从华为拍月亮的惊人“算法效果”中得到的灵感,或者,是华为效法谷歌,只是更加激进。

总之,在新的手机发布之后,的确有一批真香患者,前来捧场。

然后我看到了这样的比较:

夜空效果,在机身摄像头素质提高有限的情况下,谷歌选择了用软件来提升。优化图片,无非降噪+强化有效像素。这需要软件能够学习到,图片上哪些是噪点,哪些是有用的像素点。所谓神经网络的算法,大抵优势就提现在这里。

说实在的,即使是优化之后的效果,我也没看出天上的小亮点,有任何想象中星空的美感。

如果将前戏加进去,这张照片是手持10几秒在户外拍摄的,那就nb了。毕竟没有一个正常人类能够10几秒,像三脚架一样静止不动。

所以,pixel 4的背面,长得跟iPhone 一毛一样?

正面就很吓人,因为它有个超宽的脑门。

实际上,浴霸造型的Pixel 4手机,仅仅是背面跟iPhone 11 Pro系列有点像而已。Pixel 4只有两个摄像头,远摄和标准焦距,没有iPhone 11 Pro的超广角。

谷歌是这样解释的,“我们认为远摄要比超广角更具备实用价值。”

我不太同意。

虽然左下角那根手指,是iPhone 11 Pro系列超广最大的毛病,手指头总是进场,但是能够拍到以前拍不到的景象,还是有点屁用的。

借我司关爷的大裤衩用用:

能把裤衩拍全了,也是优势。

不过,Pixel 4的脑门大,也并不是全无道理。谷歌开发了雷达感应技术,可以隔空对手机进行控制。比如:在手机上方挥挥手,切换到下一首歌这样子。

可惜,技术还有些不成熟,偶有失误。而且人类的动作也没那么标准。在无从得知雷达感应范围的情况下,挥手之后的小动作,会让手机很迷茫。

在能够预见的未来,谷歌这款售价高达899的新款智能手机,我猜不会买的很好。黑五买一送一也是有可能的。

当然,国内的同学不买谷歌手机,核心原因不是没钱这么简单,而是“墙”的那点事。

昨天,有朋友看到我的11 Pro,说,这部手机拍照很好。

实话讲,啥叫拍照好呢?

对于大部分人来说,能够用眼睛感知到的效果,就叫做好。比如:拍得清楚。

在iOS 13.2beta版发布的时候,为了体验iPhone 11 Pro的神经网络计算,我第一时间升级了iOS,感受所谓的Deep Fusion有多神奇。

没有Deep Fusion之前,夜拍是靠多张图片叠加,找到正确的曝光参数,合成图片给你看。有了Deep Fusion之后,相机能够知道哪些地方应该清楚,会强化这些像素点。

我用iPhone Xs和iPhone 11 Pro拍了几张照片作对比。

那边是XS,那边是11,大家自己猜。

夜拍模式,确实比以前的手机有了极大的提高。手持3秒拍照,照片不糊,就是成绩。能拍得更清楚,光线更加符合当时的场景,那就更好了。

在河上的鬼影灯光,是手机镜头造成的光线反射,Deep Fusion下更加明显,这也是硬伤。大家都有,独iPhone更明显。

真正能够体现Deep Fusion对细节的描绘,应该看这张。

iPad Pao背后的墙面纹理,有非常明显的加强,更符合当时的实景。

不好的消息也有,Deep Fusion追求的是真实的效果。如果脸上有痘痘,皮肤不平滑,在夜拍模式下,细节也将无所遁形。。。

至于有人用iPhone 11 Pro去拍星空。我只能放一张老美博主在蒙大拿拍摄的Stunning Picture。

右边那张长曝光Sony相机得到的图片,才是我们想象中的星空吧。

不管怎么说,在拍照功能更加重要的今天,谷歌拿出来的产品,实在差强人意,不像是大公司的正经作品。

而看起来毫无创新的苹果,4K60P视频拍摄,夜景计算,后面几步反而走得稳了些。

待到iOS 13.2正式版发布,iPhone 11将会变得更香。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20191017A0J7ZR00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券