陈可辛的《三分钟》,手机拍照的五年
手机拍照并不能「秒」单反,但是差距正在逐渐缩小。
导演陈可辛最近帮苹果拍了一部广告片《三分钟》,片尾的「iPhone X 拍摄」引发了不少争议,因为这次拍摄陈可辛用到了大量外设:比如长焦镜头、无人机、OSMO 手持云台。
陈可辛的这次拍摄击中了大部分人心中的痛点:
与专业的单反和微单相比,手机摄影经常还是那个「甘拜下风」的落败者。
通过这短短的三分钟,或许你已经对手机拍照这近五年来的发展和表现失去了信心。但实际上,2012 年以来,手机厂商们「绞尽脑汁」,用上了各种改善手机拍照成片效果的方法。手机拍照与单反的差距正在逐渐缩小。
根据DxOMark 的统计,从最早的诺基亚 808 到今天的旗舰手机(比如GooglePixel 2、iPhone X 和三星 Galaxy Note 8),苹果、三星和 Google 手机的图像质量和视频性能逐代上升,成片效果越来越好。
本文梳理了苹果、三星、Google 和华为的旗舰手机是如何提升拍照的质量,让你在购买某一款手机之前,就对它的拍照水平有了一个详细、全面的参照系。
「漆黑一片」还是「噪点爆炸」
要想说清楚具体某一款手机的拍照水平,首先需要建立一个评价照片质量的指标体系。根据 DxOMark 的评价体系,照片质量的优劣主要由纹理和噪点、曝光、自动对焦、变焦质量和散景效果这六大指标决定。
其中噪点和纹理对照片观感影响最大,尤其是夜景——拍照水平不及格的手机常常表现为「漆黑一片」或者噪点特别多,比如这样的:
为了减少噪点,提升画面纯净度,同时兼顾夜景的亮度(亮度太低,画面也会损失大量的纹理细节),无论是相机还是手机,最常用的方法是增加图像传感器尺寸来改善相机的光线捕捉能力和图像质量。
瓶颈——传感器尺寸
但是更大的传感器尺寸对于设计轻薄化的手机来说是一个很容易达到的瓶颈——手机内部留给相机模组的空间就那么点大小,很难塞得下更大的传感器尺寸了。这条路基本上被堵死了。
另一种办法是长曝光——用较低的快门速度增加进光量,比如 Android 手机相机 UI 普遍提供的手动模式,你可以手动调节 曝光时间和 ISO。这样拍出来的夜景的确很「光滑」,亮度也能达到「夜视仪」的水平。但前提是你需要一个三脚架,而且拍摄的物体最好是静止不动的——8 秒的曝光时间非常容易拍糊。
用手机拍个照不仅要带着三脚架,还要等上个 8 秒甚至半分钟,这可以说是用户体验的巨大倒退了,也违背了手机轻便化的初衷。
「力挽狂澜」的降噪算法
目前主流旗舰手机的解决方案是算法,具体到低光照片的专业名称为时域降噪 (TNR),结合多帧图像数据以增加拍摄时累计的曝光时间。合并多帧图像来消除噪点。
以 iPhone 5s 以来的历代 iPhone 为例,iPhone 6 的成像硬件与 iPhone 5s 相同,但它的噪点和纹理都比前代产品好。主要的原因是 iPhone 6 配备了苹果的 A8 芯片,与 iPhone 5s 的 A7 处理器相比,A8 具有改进的图像信号处理器 (ISP)。DxOMark 提供的 5 勒克斯低光照片显示:从 iPhone 5s 到 iPhone 6,照片细节的增加非常明显,就像是你看腾讯视频的时候清晰度从标清上调到高清的差别。
降噪算法不只是会让「差的变好」,如果没优化好,也会让「好的变差」
比如新一代的 iPhone 7 Plus,相比前代,iPhone 7 Plus 的像素更高,镜头光圈更大,而且配备了光学防抖。但在细节方面,它和 iPhone 6 并没有太大的差别。因为苹果为了使iPhone 7 Plus 的噪点少于 iPhone 6,调整了 iPhone 7 Plus 的图像处理参数。
降噪算法「坑队友」的情况到了 iPhone X 这一代得到了改善——iPhone X 得益于改进的时域降噪算法,噪点比 iPhone 7 Plus 低,而且拥有更丰富的纹理细节。
历史总是惊人的相似——同样的「坑队友」也曾发生在诺基亚 808 上。而且这位「前辈」其实更冤,因为诺基亚好不容易往手机里「塞入」了一个传感器尺寸高达 66mm² 相机模组(即使是 2017 年,市面上尺寸比较大的传感器,比如华为 Mate 10 Pro 也只达到了 29mm²),最终的成片效果却被算法坑了,甚至还不如传感器尺寸只有 18mm² 的 iPhone 5s。
虽然诺基亚 808「底大」,但是诺基亚工程师只是简单地移植了之前用于较小图像传感器的曝光策略,最终在 1 勒克斯的极低光下拍摄的样片是这样的:
「车祸现场」的诺基亚 808
自动 HDR
白天拿起手机拍照的时候,在有蓝天和风景的情况下,如果你想拍清楚风景的暗部纹理,需要点击屏幕把测光的焦点对准要拍的风景。这种场景下拍出的照片,蓝天有很大几率过曝或者偏色。不断优化的 HDR 算法发挥了作用,你在这种高对比度场景也能拍出比较蓝的天空。
自动 HDR 早在 2010 年的手机就有应用,但是直到 2013 年发布的 iPhone 5s,自动 HDR 优化的也并不好。由 iPhone 5s 拍摄的样片可以看到蓝天,但天空的色彩仍然比较偏 青色而非蓝色,而且最亮的高光位区域仍然出现了一些剪贴纹理。到了新一代的 iPhone 7 Plus,自动 HDR 已经能够完美地保留天空的色彩,而且 iPhone 8 Plus 也使阴影变亮了些,以便在非常黑暗的前景区域中还原出一些细节。
「逆光也清晰」——这可能是 vivo 最成功的广告词之一,借用这句广告词可以很形象的说明自动 HDR 的另一功效:改善逆光人像。
每年 HDR 算法的升级也在不断提升逆光人像的拍摄效果。iPhone 8 Plus 还增加了人脸检测功能,人脸和背景的图像细节变得更容易兼顾了。
人像模式
说到拍摄人像,由 iPhone 7 Plus 带动的手机拍照潮流是双摄像头加持的「人像模式」。有了这个功能,你再也不能像以前那样,简单的以有没有人像的背景虚化来区分照片是单反还是手机拍摄的。
如果你有女朋友的话,一台有人像模式的手机可以说是必备品了。
手机厂商们的背景虚化目前分成了三大流派:以苹果为代表的「广角+长焦镜头」的双摄派,以华为为代表的「双广角」派,以 Google 为代表的单摄像头派。
其中 Google Nexus 6P 和 Pixel 仅通过单摄像头就可以实现人像模式,可以说是真正体现了 Google「用数学拍照」的强大实力。不过与双摄像头的 iPhone X 、三星 Galaxy Note 8、华为 Mate 10 Pro 相比,还是不够完美。
根据 DxOMark 的测试,Google 这种单摄像头实现背景虚化的方法是在不同的焦点设置下快速连续拍摄几张照片,然后合并拍摄结果。比如 Nexus 6P 在摄像头稍微向上移动时拍摄了一系列照片,由此产生的景深图经常会出现一些错误。
苹果和华为代表的另外两个流派目前的旗舰机都能很好的实现背景虚化,不过 Mate 10 Pro 的「双广角」在焦距上有些吃亏。Mate 10 Pro 的景深模式采用等效 35 mm 左右的视野来拍摄人像,这并不是典型的人像焦距,无法拍出与配备了等效 50 mm 副镜头的 iPhone X 完全相同的人像照片。
「三大流派」需要改进的依然是夜景,在昏暗的环境中,所有的图像都出现了大量的亮度噪点,这在人像的肤色上尤其明显。
视频防抖
陈可辛在拍摄《三分钟》的过程中,最为重要的外设之一是大疆 OSMO 手机云台。那个小男孩在人群中穿梭,奔跑着找妈妈的那段就是导演把 iPhone 和云台固定在小男孩身上拍出来的。
其实,如果不是剧烈奔跑的场景,只是日常生活视频,比如最近很火的 Vlog,一台有视频防抖功能的手机也基本够用了。
视频防抖是一个需要手机软硬件高度协作的系统,除了目前旗舰手机标配的光学防抖,更早的集成陀螺仪也已经成为必备功能。
苹果是第一个通过集成陀螺仪数据来增强视频稳定性的手机厂商。陀螺仪和图像传感器数据同步需要很好的软硬件协作,苹果发挥了它完全控制其手机上的所有硬件和软件元件的优势,早在 2013 年发布的 iPhone 5s 上就已经实现了比较稳定的视频效果。
而 Google Pixel 再次发挥了算法的优势,通过「非因果防抖」的技术,使用大约一秒钟的视频缓存器来让防抖系统预测未来的摄像头运动。但是这种防抖功能需要陀螺仪提供非常可靠的数据,2012 年或 2013 年的老旧陀螺仪组件已经力不从心了——你在比较旧的 Android 手机上即使安装了 Google Camera,也达不到 Pixel 的视频稳定效果。
长江后浪推前浪,手机拍照一代比一代更好了,除了算法和光学防抖的改进,新技术层出不穷,手机摄像头的光圈在变大,双像素传感器与相位传感器的结合带来了更快的自动对焦,人脸检测依托算法也变得更加智能。
看到手机厂商们这么努力提升拍照水平,生产研发单反的「牙膏厂们」是不是也要加把劲了?