没有太多硬件基因的 Google,对于智能手机产品一直有另一番理解,尤其是在拍照方面。 2016 年 10 月 5 日,Google CEO 桑达尔·皮蔡(Sundar Pichai)提出了由「移动为先」转为「AI 为先」的口号,同日亮相的初代 Pixel 手机就是这个理念的体现。 表面上看,Pixel 使用的摄像头和更早推出的 Nexus 6P 并没有太大变化,大家都是一样的 1230 万像素和 1.55 μm 的单像素尺寸,区别仅仅是加入了相位对焦功能。 但两者却在 DxOMark 上获得了完全不同的评价 —— Nexus 6P 只有不起眼的 73 分,但 Pixel 却凭借 89 分拿下了当时的榜首。 之后的第二代 Pixel 推出时,Google 也开始把关键卖点放在了拍照上,这款手机的评分涨到了 98 分,一举超过同期的三星 Galaxy Note 8 和苹果 iPhone X 再度登顶,DxOMark 当时给出的评语是「创下智能手机相机质量的新记录」。 连续两次拿下榜单首位,加上媒体和用户的好评如潮,开始让 Google 亲儿子手机散发出一种神秘的吸引力。其中最让人不解的是,两代 Pixel 手机都仅凭单摄像头就获得了这一成绩,难道 Google 的 AI 算法真的已经强大到能无视物理硬件了吗? ▲图片来自:Gizmodo 哪怕是在今天,新发布的 Pixel 3 手机也依旧没有采用时下主流的双摄乃至是三摄组合,这种「靠单摄独步天下」的功力,除了 Google 你也很难再找到第二家了。 但现在来看,它确实有这份「任性」的资格和底气。 Pixel 3 的摄像头有多聪明? 在大众用户的认知中,摄影的过程无非就是三个步骤:1)看到自己想拍的东西;2)打开相机按下快门,记录这个瞬间;3)获得一张静止不动的照片。 专业摄影师就不一样了。他们得根据现场的光照情况对应调整快门和光圈大小,选择合适焦段的镜头,拍摄时会考究构图和按快门的时机,拍完还要拿去 PS 或 LR 里后期一下,最终才得出了我们眼中的各种「大片」。 ▲图片来自:Businessinsider 但智能手机的普及改变了这一切,不管是 Pixel 还是 iPhone 或其它手机,手机厂商都在淡化原本只有摄影师才懂的 ISO、曝光时间等数值,这些交给处理器和算法完成就好了,用户只要懂得按下快门,也能拍出一张媲美卡片机的照片。 Google 显然也懂得这个「拍照傻瓜化」的道理,只是比起寻求专用硬件来点亮更多的技能树,它更喜欢利用 AI 和各种堆栈算法来解决问题。 这种思路很有趣,说白了,它希望让机器自己去学习如何才能拍得更好。 在去年的 Pixel 2 系列中,Google 专门加入了一颗名为「Pixel Visual Core」的定制图像处理单元,这是 Google 与英特尔合作开发的 8 核心协处理器,目的是用来加速各种与 AI 拍照相关的任务,比如 Pixel 系列一贯主打的 HDR+。 而在 Pixel 3 上,这颗 Visual Core 核心也获得了更新,它的处理速度比去年快了 40%,意味着它能对更快地处理各种繁杂的照片源数据,在机器学习的帮助下还让 Pixel 3 解决了一些日常拍照的痛点。 首先是名为「Top Shot」的照片精选特性,它能够在你按下快门时自动记录前后数秒的影像,有点类似 iPhone 中的 Live Photos,但此时 AI 还会自动将「最佳时刻」打上标签供你挑选,所以就算是你不小心拍到别人闭眼的窘态,也可以选择其它画面作为最终照片。 ▲「Night Sight」不仅适用于后置,也适用于前置。图片为 Google 官方样张 至于在伸手看不清五指的场景下,Google 给出的方案是「Night Sight」夜景模式,这个功能的核心还是借助 HDR+ 的连续采样和多帧合成,目的是尽可能地提高照片的亮度,彻底解决「暗光拍不到」的问题。 为了强调这个模式的出众效果,Google 在发布会上还对隔壁 iPhone XS 进行了一番「吊打」,也不知道苹果此时的心情是怎么样的。 还有一个是「Sup |
免责声明:本网站内容由网友自行在页面发布,上传者应自行负责所上传内容涉及的法律责任,本网站对内容真实性、版权等概不负责,亦不承担任何法律责任。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。