iPhone 6s也要支持4K视频拍摄?
扫描二维码
随时随地手机看文章
iPhone发布会将于9月9日召开,这几天关于新 iPhone 6s的传言也越来越多。近日关于iPhone 6s的摄像头又有消息传出,说新款将会支持 4K 视频拍摄。虽然传言暂时无法验证,但也着实让不少人的期待程度更上一层。
其实,只要下代 iPhone 更换为1200万像素摄像头,硬件上支持4K视频录制就没有问题。iPhone 的摄像头传感器供应商Sony今年发布的高端手机CMOS传感器全部支持 4K 录制,而苹果的A9芯片也肯定支持4K视频编码。是否支持4K,仅仅看苹果要不要在软件层面打开这一功能罢了。另外目前市面上已经有不少高端安卓智能手机支持4K拍摄了,iPhone加入这一功能也是顺理成章。
消费者更关心的是手机上的4K录影究竟是实实在在的改进,还是一个并不实用的噱头?毕竟就连好莱坞电影的主流都还是1080p,支持4k播映的电影院都不是很多,家用4K电视也未普及,4K片源更是罕见。在这样的背景下,手机拍4K有意义吗?
答案是肯定的。首先我们要明白,一般的数码成像设备的像素计算方式和显示设备的像素计算方式是不同的。前者的单个像素都是单色的,后者的单个像素则是红绿蓝三个子像素组成的彩色像素。相机输出照片时,每个单色像素通过插值生成一个彩色像素,这样输出的图像自然是会有信息损失的。
根据实际测试的结果,常见的手机、相机拍摄的1080p视频,其实际清晰度因为上述的差值问题,是大大小于1080p显示设备的清晰度的。相比之下,电影电视工业使用的高性能摄影机、摄像机拍摄1080p视频时,往往通过像素超级采样的方式来提升有效清晰度。拍摄同样的1080p规格视频,电视台的摄像机的录制像素数量达到 620 万以上,相当于一般手机、相机的三倍之多,因此输出的视频要比后者清晰很多。不少消费者抱怨自家相机拍摄的高清视频看上去不如电视台的清楚,原因主要在此。
另一方面,由于手机、相机主要用来拍摄静态照片,往往传感器的像素数量很多,而单个像素的尺寸很小。上千万像素传感器拍摄 1080p 视频时,用到的像素却只有 200 万而已。实际用到的像素数量不多,相当于拍摄视频时传感器的有效面积也要小很多。以 iPhone 6使用的1/3 英寸800万像素传感器为例,其拍摄视频时仅相当于一颗1/6英寸200万像素摄像头,还不如几年前的家用DV。这样的硬件基础下,再怎么做软件优化也没什么意义。
而手机提升到4K拍摄,意味着传感器上用来录制视频的像素数量增加到原来的4倍,有效的传感器面积也达到四倍的提升。这样一来,首先输出视频的清晰度就会有明显改善,即使缩放到常见的1080p显示设备上,人们也能一眼分辨出手机录制的4K文件相比1080p版本要清楚很多。
另一方面,4K视频缩放到1080p规格时,只要后期程序的算法给力,视频的动态范围、噪点指标等参数也可以得到改善。这些改善主要来自于传感器参与拍摄的总面积增大。换句话说,手机摄像头录像规格提升到4K,视频质量的提升将是全方位的。
那么制约手机厂商提供4K拍摄功能的因素是什么呢?主要有两个原因:功耗和后期处理能力。4K拍摄时,传感器的能耗相比1080p模式成倍增加,要求的运算能力、数据带宽更是有两三倍增长。因此只有当传感器功耗、手机芯片性能两个指标都达到一定水平后厂商才会考虑为手机加入4K拍摄能力。
不过随着技术进步和相关硬件成本下降,主流手机全面引入4K拍摄功能已经是大势所趋。苹果这次的动作其实已经晚于竞争对手,不过 iPhone 若支持4K录影将使更多消费者打消对这一技术的疑虑,加速其普及。此外,大批手机开始拍摄 4K 视频后,市场对相关后期硬件、应用的需求也会增加,间接带动整个影像产业的进步。
总之,手机拍摄4K视频并不是什么忽悠消费者的噱头,若新 iPhone 真能支持这一技术,的确值得果粉们欢呼了。