跨越3000公里,历时1个月写就的iPhone 11深度评测

杨玲

以下文章来源于一点OnePoint ,作者李白兔子 一点OnePoint 一次教你一点摄影知识和技能,易学易用,点滴积累,让你成为影像达人。 前言 北京 - 上海,约 1212 公里, 北京 - 大理,约 2188 公里。 1 个月时间,超过 4000 张照片, 这就是本文观点的基础。 本次评测的机型是 iPhone 11 和 iPhone 11 Pro Max ,二者均具备超广角和广角镜头,适用于文中多数观点,只有在涉及中焦镜头时,是 Pro 型号才能做到。 为保证文章内容不出纰漏,我还咨询了一些业内朋友,在此向他们表示由衷感谢! Let's roll~ 一开始,我知道你们比起功能,或许更想聊(tu)聊(cao)这一代 iPhone 的外观,特别是那 3 个巨大的摄像头。 鉴于网上很多梗儿,我就不多说啥了,看张图你就懂了: 我更想与你分享的,是很多人忽视的 iPhone 11 及 iPhone 11 Pro Max 外形设计。 一般来说,一台手机无论正面反面,越接近完全平面,给人的感觉越好。这就是所谓的“一体感”,用个成语就是“浑然天成”。 但在 iPhone 11 系列手机上,机身背面却有 3 个层级。分别是手感非常出色的磨砂背盖、光滑的玻璃摄像头模组(大方块)和三个略微凸起的摄像头( iPhone 11 是两个)。 看起来背面违背了简约即是美的设计准则,但其实这一设计却解决了一个问题:让摄像头显得没那么凸起了。 “ 这就像在华北平原和珠穆朗玛峰之间, 加了个青藏高原来过渡,就不太突兀了。 ” 特别是在安装上手机壳后,三颗摄像头看起来只是略微突出,甚至还会让人觉得镜头的金圈有点高级…… 3 层级设计减少了镜头的突出感 当然,这并不能弱化三个巨大黑洞给视觉上带来的(负面)冲击。所以喜欢完美外观的朋友,选一个好看的手机壳可能会解决很大程度上的视觉焦虑。 在摄像头增多之后,手机背面如何设计才更美观,是目前困扰所有手机厂商的问题。我也还没有看到在性能和美观方面特别平衡的解决方案。 不过外观并不是本文主要讨论的,接下来才是关键: “ 即使你认为 iPhone 11 系列不好看, 但依然不能否认它拍照方面的强大。” 接下来,我会从三个方面来带你进入 iPhone 11 与 iPhone 11 Pro Max 的拍照世界,它们分别是: 注:上面三张照片均由 iPhone 11 Pro Max 拍摄。 关键点 # 目前手机上最广的等效 13mm # 沉浸式体验和超范围拍摄 # 一致的三摄体验 在 iPhone 11 和 iPhone 11 Pro / Pro Max 上,苹果首次搭载了等效 13mm 的超广角摄像头(光圈 F2.4 ),视角达到了 120°。 “ 这是目前你能在手机上获得的最广视角 ” 相比之下,主摄的焦距为 26mm,这之间高达一倍的焦距差异,能带来视觉上放大数倍的透视效果变化。 视角的差异带来的是视觉冲击力的绝大提升,与有限距离下拍到更多内容的可能性,甚至比主摄的全景模式所拍到的内容也相差不多。 由于苹果在全景模式下也能使用超广角,所以实际上还提供了拍摄更广画面的可能。 如何衡量超广角摄像头的好坏?边缘画质是非常重要的一项,也就是所谓整个画面的均一性。 就这一点来说,iPhone 11 系列上的超广角边缘画质相当出色。即使对比一些以超广角见长的安卓手机,新一代 iPhone 的边缘成像、像差控制方面也绝不逊色。 在这个对比中,你除了能看到 iPhone 11 的 13mm 比安卓上的 16mm 的视野还要更广一点,还能看到二者在色彩方面的差异 —— 安卓更鲜艳,苹果比较素雅。 当然只有将画面放大才能看到更多细节,在画面中心部分,安卓的锐度要更好(这款安卓机型超广角为 1300 万像素): 但到了考验超广角的边缘上,iPhone 11 要明显更为出色 —— 虽然有些颗粒,但没有紫边,暗部的房梁细节也更丰富。 所以不要只觉得 iPhone 11 系列只是加了个超广角,而是应该看到它对画面的控制达到了很高的水准,具备极高的完成度和实用性。 看几张 iPhone 11 和 iPhone 11 Pro Max 超广角拍摄的照片: 仅仅用来拍照还不算完全发挥超广角摄像头的潜能,苹果比我们想得更多。 iPhone 11 系列手机利用超广角摄像头做了很多安卓厂商想做但是没有做的一个功能 —— 沉浸式体验。 “ 沉浸式体验 ” 类似的尝试在以往的安卓手机上也有出现过,也就是将取景画面铺满整个屏幕。但那通常意味着对画面的裁切,只能拍到 16:9 的非最高像素照片。 而在 iPhone 11 系列手机上,苹果提供的沉浸式体验则完全不同。它是将超广角镜头所拍摄的画面对齐并拼接到拍摄界面中,不剪裁,不影响照片分辨率,还拓展了取景视野。 传统拍摄界面: 沉浸式拍摄界面: 要实现这一步,需要同时读取双摄像头数据、进行调色统一和图像对齐,对手机处理器的计算能力有很高要求。 在此基础之上,苹果更进一步,为我们带来了超取景框拍摄功能。 你需要在 “设置 - 相机” 中打开这一功能才能使用。它的作用是当你用主摄或 2× 镜头拍完一张照片后,可以在编辑中选择更大的画面范围。 当然这一功能还是没有直接用超广角镜头拍摄的视角广 举个例子,对并不是很专业的摄影爱好者来说,通常是出门旅行回来,翻看照片时才发现有些建筑没有拍全,不够震撼。这时已经不能再去补拍了。 那么这一功能就能提供一个 “后悔药” ,在编辑照片时,选择剪裁,然后用双指缩放的手势就能将画面扩展到更大范围。 换句话说,开启这一功能后,每按一次快门,手机都会帮你多拍了一些画面,不仅让你多了一个超广视野选择,还能有更大的后期剪裁空间。 说起来容易,要实现这一功能,必须要做到所有摄像头之间拥有统一的色调、细节表现。而这恰好是 iPhone 11 系列手机给我的另一个突出印象: “ 3 个摄像头拍到的画面风格极为一致 ” 作为一个摄影师,即使没有超取景框拍摄功能,我也通常会在每次拍摄时尝试不同的焦距和视角。如果每个镜头的色调都不一致,那么不仅会给后期修片带来更多负担,也会让我在拍摄时感到困扰 —— 到底哪个摄像头的颜色是正确的? 无论在双摄的 iPhone 11 上,还是在三摄的 iPhone 11 Pro 和 iPhone 11 Pro Max 上,我用哪个摄像头拍出的色调都几乎一样。 局部放大画面,你会发现除了视角差异和曝光上的轻微不同(还有拍摄角度造成的内容变化),色彩倾向、云层的过渡、质感都非常接近。 打个不恰当的比喻,这种统一的感觉,让照片看上去就像是一张照片剪裁出来的一样。 “ 那么,超广角摄像头有没有缺点呢?” 听我说了这么多超广角的优点,你一定会好奇上面这个问题。确实,iPhone 11 系列上的超广角也并非没有缺点。 比如,尽管苹果对这颗等效 13mm 超广角的校准已经达到了极高水准,但如果画面中有平行线条,那么在画面边角线条还是会出现一定的变形。 不过我觉得在这里 iPhone 的表现已经很好了,毕竟即使相机领域里,超过 14mm 的超广角变形也很难做到一点畸变都没有。而手机上这颗超广角的物理焦距仅有 1.54mm ,要想做到完全没有变形,要付出的成本代价恐怕是用户不能接受的。 除了畸变,视频拍摄时,如果设定为拍摄最高画质的 4K 60fps 视频,那么三颗摄像头只能各自独立拍摄,而不能在录制视频中进行切换,看起来像变焦的界面,其实只是数码变焦。 4K 60fps 时,每个摄像头的变焦范围都被限制了。 在 4K 30fps 及以下分辨率时,虽然可以连续变焦,但在超广角镜头切换到广角镜头时,画面会有一下跳跃。这在拍摄近距离物体时会更加明显。 超取景框拍摄的照片虽然拼接和对齐非常到位,但是放大仔细观看也会发现边缘分辨率不如中间,因为超广角摄像头的边缘成像本质上还是弱于主摄: 好在这种分辨率降低不放大看不出,所以通常并不会影响观感。 最后一个问题是夜景。受限于 F2.4 的最大光圈和较小的传感器尺寸,它的夜景成像效果不佳。而苹果又没有为超广角搭载像主摄那样惊艳的夜景模式(在算法部分会细说)之后,这更加突显了超广角摄像头的夜拍短板。 有趣的是,目前第三方 App 已经支持了超广角的夜景合成运算,并且效果提升明显。 所以我还是比较期待苹果自己能通过系统升级,早日让超广角也用上这一功能。毕竟,很多安卓手机均支持超广角下的夜景模式(我用过的机型里华为、OPPO都可以),这是能通过算法来解决的。 而算法,正是接下来这部分的重点,也本文关注的核心要点。 在 iPhone 11 系列手机上,我见识到了苹果强大的算法实力。引用一位业内朋友的话说:“这两年安卓的算法这么猛,但现在看了 iPhone 11 Pro 上的算法,发现你大爷还是你大爷……” 关键点 # 不再担心曝光过度 # 惊艳的夜景模式 # 蓄势待发的 Deep Fusion 其实刚刚提到的三摄照片风格统一,就已经属于算法的范畴了,但在这部分,我为你展示的是 iPhone 11 系列手机上更令人惊讶的算法进步。 比如,对数码摄影中最令人头疼的曝光过度问题,我记得在评测 iPhone 8 Plus 时,做过下面这张对比图: iPhone 8 Plus 的年代里,如果画面中只有像云边那样一点点过曝时,手机通常无法识别出来,需要你自己开启 HDR 或降低曝光补偿才能避免过曝。 巧合的是,在评测 iPhone 11 和 iPhone 11 Pro Max 时,我来到了同样的地方,拍摄了相似的场景。 “ 我发现,我只需要按快门就好了。” 即使云层的高光依然只占画面一小部分,手机也能很好的识别出来,并通过拍摄多张不同曝光的照片并各取最优部分,来减少曝光失误、提升画面表现。 放大画面看,云的细节非常丰富。 局部放大 但这还不够厉害,接下来才是重点: “ 真正恐怖的是,这个算法是实时的。” 没错,所见即所得。无论视频还是照片,就连 Live Photos(实况功能) 记录的连贯动画都是经过近似实时 HDR 计算的,没有过曝。而前几代机型上,实况的动画通常是过曝的,只有最终拍下的那一张照片包含丰富细节。 之所以如此强调这一点,是因为对一张数码照片来说,欠曝,也就是略微偏暗的问题,可以通过后期提亮来轻松解决。但过曝,也就是亮部失去细节变成纯白,就没办法解决了。所以我才会在以往手机摄影课里专门讲解何时、如何开启 HDR 功能。 而如今,在使用 iPhone 11 和 iPhone 11 Pro Max 的近一个月时间里,我惊讶的发现自己不必再在意是否开启了 HDR ,甚至用到曝光补偿的次数都比以前少了。 少数有曝光过度的照片之一,其实任何拍摄工具来说这场景都很难做到没有过曝。 我还特意用 iPhone 11 Pro Max 与某台旗舰安卓手机进行了逆光场景对比,你可以看看在没有任何人为干预的前提下(不用手碰高光部位进行测光,不使用曝光补偿,不强制开启 HDR ),完全用自动模式拍出的两张照片: 好像都不错?放大画面中心最容易产生过曝的部分,你就会发现二者的差别非常明显: 客观的说,对于有经验的摄影爱好者来说,遇到上面的场景,无论用什么机型,只要做简单的降低曝光补偿的操作就能搞定。 但对那些并不了解摄影,特别是那些连曝光过度是什么的普通用户来说,iPhone 11 系列手机对过曝的降低就显得非常友好了。 但这仅仅只是 iPhone 11 系列手机上算法的冰山一角,更强大的在后面。 “ 我手持 iPhone 11 Pro Max 拍摄了星空 ” 看到上面那句话,你肯定会觉得是骗人的。事实上我在拍摄之前,也不太相信有手机能做到手持拍摄星空。 但你看看下面的录屏视频就会明白我所言非虚: 而这就是手持拍摄的画面效果: 有明显的颗粒感和降噪痕迹,但星点很清晰,并且没有抖动。 如果你将手机固定于更稳的三脚架上,曝光时间还会进一步延长(最长可达 30 秒)以获得更好的画质: 所以我后来又直接多拍了一些照片,合成了一张手机星轨作品: 详细星轨教程之后会做单独推送 提到星空、星轨,很多人会和我一样,觉得这是某些安卓手机的专长,在 iPhone 上是不可想象的。而现在,iPhone 11 和 iPhone 11 Pro 就能做到了。 当然,对多数人来说,并不会经常拍摄星空题材,我们常拍的是下面这样的城市夜景: 此时自动开启的夜景模式效果也相当明显: 特别是对画面中原本较暗的区域,夜景模式的细节增强和提亮作用非常显著: 值得注意的是,iPhone 11 系列上的夜景模式是自动开启,白天不能使用。 当拍照界面顶部出现这个图标时,说明夜景模式已经开启了。 开启后,点击夜景图标还能手动关闭或延长拍摄时间。 快门按钮上方的标尺可以滑动 那么,这个神奇的夜景模式是什么原理呢?我们不妨先来看一张使用 iPhone 11 Pro Max 夜景模式拍摄的照片: 当时小娃在玩木马,虽然没有很剧烈的摇晃,但也绝不是静止不动的。在以秒为单位计算的夜景模式拍摄结束后,得到的画面竟然是人物和背景都基本清晰。 显然,如果你把夜景模式等同于相机上的长时间曝光,那么上面的图片是不可能获得的。 事实上,我通过上面的图片大致推断了一下 iPhone 11 和 iPhone 11 Pro Max 上的夜景工作流程,从中你可以发现算法起到的关键作用: 值得注意的是,整个过程中,拿着手机的人只做了两件事:进入拍照模式,按下快门,其他一切都由手机搞定了。 并且,一切几乎都在瞬间完成。即使长达 30 秒的拍摄,也没有漫长的运算等待时间,而是直接可以拍摄下一张 30 秒的夜景照片。 因此,我才能一张张连续拍摄,直到最后将所有照片素材合成为没有断点的星轨照片。 连续不间断拍摄的星空照片 需要强调的是,手机上的算法是在你按快门之前就已经开始运算了,而在整个拍摄的过程中,其实手机并非像相机那样拍摄单次曝光的单帧画面,而是连续拍摄了多帧照片。这样的好处是避免长曝光的抖动,并获得足够多的“正确”信息。 说起来轻松,哪些是“正确”信息,哪些是噪点和抖动模糊的无用信息,要完全判断出来并不容易。这里面 iPhone 11 一代搭载的 A13 仿生处理器和第三代神经网络引擎功不可没。 这就是算法的魅力,即使传感器只有指甲盖大小,并不擅长星空拍摄,甚至没有三脚架辅助,也能拍出不错的效果。 当然,算法本身是人来写的,即使是机器学习技术,也需要人来指明方向。就好像你需要告诉人工智能,哪些照片是好看的,哪些不好看。人工智能才能以此为审美基准完成自我进步。 “ 好像漏了什么?Deep Fusion呢? ” 算法这部分到这里就结束了,原因是我没能等到 iOS 13.2 ,也就没等到 Deep Fusion 功能开放。 虽然目前有 beta 版可以试玩,但我始终觉得如果不是正式版,那么一切就还都不算数。所以,关于能极大提升图像细节表现力的 Deep Fusion 功能,等更新之后我会再做文章来介绍,并且会与 6400 万像素的安卓手机来 PK 一下~ “拍照片,就是按快门。” “底大一级压死人。” “硬件不行,画质就差。” 这 3 句话, 在如今的手机上都需要打个问号。 这是以往我们认为的真理。但是随着手机摄影的兴起,为了突破手机方寸之间的限制,人们通过对算法的探索与完善,开创了一个崭新的算法摄影时代。 在这个算法摄影时代,传统意义上的按快门仅仅是决定一个画面中应该有什么的标准,而不能完全决定最终画面的效果。甚至快门的长短都不能与最终画面直接挂钩,而是取决于算法处理的效果。 像文章开始的这张作品,就是先用了人像模式,再结合后期修片才实现的。 换句话说,你是否能获得满意的照片,除了取决于你的审美、技术和手机硬件的规格外,更加要仰仗于那些编写算法的工程师,以及日益强大的人工智能。 记录丰富的层次,并非纯靠大尺寸的传感器。 “ 你以为拍的是一张照片, 其实它是由很多张照片各取优点合成的。” 而这张照片的好坏,也不仅取决于传统数码摄影三要素中的感光元件、处理器和镜头,更取决于手机算法摄影时代新的三要素: 算法摄影 3 要素 1 传感器刷新率 - 是否能在瞬间采集足够多不同曝光参数的画面用于合成 2 AI算法 - 是否能正确判定不同画面中的最优部分,是否有足够好的美学导向 3 处理器运算能力 - 是否能在一瞬间完成上述计算处理工作 iPhone 11 系列手机的强,就是因为做到了上述 3 点。但这一观点并非仅针对 iPhone 11 系列手机而言,对于华为、vivo、OPPO、小米和三星等等手机厂商都是如此。只有更多手机和相机厂商,以及更多用户认识到算法对于摄影的意义,才能推动影像产品的进化与易用化。 “ iPhone 11 系列手机只是算法摄影的一个代表, 当然,它是非常令我满意的一个代表。” 啊,打了这么多字,最后我们来休息下,看一些作品吧,毕竟摄影是一件让人身心愉悦的事情~ 以下均为 iPhone 11 Pro Max 拍摄 Snapseed / Mextures 修片 最后,再补充一些前面没有提到,但是你可能会感兴趣的观点(个人观点): iPhone 11 Pro Max 的屏幕效果非常出色,亮度够高、色彩够准、细节够丰富。人像模式没有太大进步,尤其是边缘识别抠图方面。新增的白色背景人像光效模式(高调单色光)比较挑被摄对象,不是所有人都能 Hold 住。视频拍摄效果出色,还具备音频变焦功能。视频可以直接剪裁并调整透视效果。没有 3D Touch ,这点我很不习惯。电池续航确实增强了许多。外放声音的音质似乎有所提升,但我没作对比。鬼影确实存在,手机镜头的光学设计导致的。也是因为成本所限,没法像相机镜头那么出色而已。安卓和苹果手机都有,以后有时间我可以聊下如何避免拍出鬼影。iPhone 11 和 iPhone 11 Pro 如何选?如果你预算充裕,那么 iPhone 11 Pro 是更好的选择。当然,嫌弃屏幕小的话, iPhone 11 Pro Max 能让你的眼睛获得更大的满足。毕竟,目前在我用过的手机中,iPhone 11 Pro Max上的屏幕应该是最好的(很可能没有之一)。 以上,这就是今年的 iPhone 新机评测,不追求最快,只追求最美,以及最深入独到的见解,是我不变的宗旨。 之后 Deep Fusion 功能更新后,我应该还会做关于像素的进一步对比,敬请期待~ —— 2019 年最晚/最美 iPhone 11 系列手机评测