iPhone|iPhone换用上48MP相机,你还相信“高像素无用”论吗?( 二 )


而且正是因为这1200W像素传感器 , 能让iPhone在处理照片时拥有更高的处理效率 , 进而让iPhone的整个影像系统都能以丝滑流畅的状态运行 。 这些都是目前安卓厂商做不到且短时间内追赶不上的 。
虽然在大家的认知中 , iPhone的镜头已经七八年没升级了 , 实际上从iPhone 6s开始 , 每一代iPhone的CMOS传感器都呈现增大的趋势 , 而且在相机防抖、对焦等方面等有着实打实的升级 , 这些点对于最终的成像效果都起着不可或缺的作用 。

 还有一点我们要注意 , 普通手机屏幕预览图片(不放大)的话 , 1080p屏幕折合像素量约为200w像素 , 800w像素已经接近4k屏幕的清晰度了 , 而1200w像素正是一个黄金点 , 保证了成片有一定的放大冗余空间的情况下 , 单位像素面积不会过小 , 而且也不会给处理器带来太大的压力 。

 当然 , 我也不反对如今内卷严重的高像素传感器 , 不认为高像素就一定是方向错了 , 但如今我们对于手机高像素的需求真的没有想象中那样大 。 就拿最常见的分享为例 , 大部分手机屏幕像素都在百万级别上下 , 哪怕是一亿像素的样张在同一块屏幕上都很难对比出它的优势 , 如果你喜欢放大几倍去挖照片细节的话 , 那当我没说 。
这么看来 , 苹果八年没有升级iPhone的像素是有着它自己的原因 , 我个人也相当赞同这种做法 , 诚然高像素在放大后的清晰度确实要比低像素好上不少 , 但又有多少人会在每次拿起打开相机时还专门去激活高像素模式呢?还不如花更多心思去做好“低像素”模式 。
其次目前许多社交媒体(例如国民软件微信)和网站因为降低网络带宽压力的需要 , 都会对用户上传的照片、视频做压缩处理 , 其他用户看到的照片基本只有几十K或者几百K , 视频也可能糊得没法看 。 纵使用户上传多清晰、分辨率多高的照片 , 最终都敌不过压缩处理 。

1亿像素甚至2亿像素听起来很强 , 但1200万像素貌似也完全足够 , 对于我们这些普通消费者来说 , 合适才是最重要的 。
所以高像素 , 对苹果来说有必要吗?那么问题来了 , 既然苹果的1200万像素是当下手机摄影体验的最优解 , 为何却突发奇想去升级传感器的像素呢?在我看来主要原因有二:
第一 , 苹果认为手机的4K视频并不是瓶颈 , 它们希望iPhone能够拍摄分辨率更高、后期剪辑空间更大的8K视频 。 这一点其实从近两年iPhone的影像逻辑上也能够看出端倪 , 在2016年 , 当安卓厂商还在拍照方面做文章时 , iPhone 7就拿出了4K视频录制的王牌 。

之后的每一代iPhone的影像升级重点也随之往视频方面倾斜 , 于是在iPhone X上我们见到了4K 60帧视频、在iPhone 12 Pro Max上我们见到了杜比视界和Apple Pro Raw格式 , 而在最新的iPhone 13系列上 , 我们见到了ProRes视频格式和模拟电影模式 。

不难看出 , 苹果正在按照电影工业的标准一步步去强化iPhone的视频拍摄能力(虽然和专业设备仍有着巨大差距) , 极大地降低消费者拍摄“好”视频的成本 , 不给入门级消费者设立各种门槛 , 也不会给“老鸟”们设立太低的上限 。
但我们也不难看出 , 如今4K视频已经成了大众主流 , 几乎所有的视频平台都推出了4K画质选项 , 这意味着身为“视频先锋”的苹果 , 要努力创新了 , 因此选择上4800万像素传感器的一个理由可能是它能够拍摄8K级别的视频 。
至于第二个原因就比较简单 , 如今的iPhone需要更多卖点才能提升产品竞争力 , 毕竟安卓阵营这边早已今时不同往日 , 在各方各面都已经十分接近甚至超越了iPhone 。 (例如充电、长焦镜头、夜景、信号等)