iPhone 的前置单摄像头是如何记录景深信息,拍摄人像模式照片的?((iphone相机人像模式的作用))
查阅苹果的支持页面时你会发现,iphone 8 所不支持的人像模式,却被新款 iphone SE 支持了 —— 哪怕两者都只有一颗后置镜头,且规格完全一样。
查阅苹果的支持页面时你会发现,iPhone 8 所不支持的人像模式,却被新款 iPhone SE 支持了 —— 哪怕两者都只有一颗后置镜头,且规格完全一样。
正常情况下,手机拍「人像模式」这样的虚化照片都得靠双摄来完成 —— 好比是人类的双眼,两个位置不同的镜头会获取两张不同角度的画面,然后结合视角差估算出景深,从而实现背景虚化,保持主体清晰。如今列表上的 Plus 系列,或是近几年的 X、 XS 和 11 等,基本都是靠多摄系统来完成人像虚化拍摄。
那么 iPhone 的前置单摄又是怎么解决的?核心在于 Face ID 系统中的红外点阵投影器,它也可以获取足够精准的深度数据,相当于是一颗「辅助镜头」。
至于新 iPhone SE,由于它的传感器过于老旧,它无法依靠传感器来获取视差图,基本只能靠 A13 Bionic 芯片所提供的机器学习算法,去模拟和生成深度数据图。
本次新 iPhone SE 所实现的人像虚化拍照,算是单摄手机靠软件优化所能做到的极限了。严格意义上,这其实也得归功于那颗 A13 芯片,如果不是它带来了最新的机器学习算法,单靠一颗过时的摄像头,SE 的拍摄体验显然得打个对折。
这也多少证明,智能手机发展多摄系统仍然是有意义的。我们可以用超广角来拓宽取景视野,可以靠潜望式长焦获得无损变焦照片,更别说 ToF、激光雷达这类「特殊镜头」对 AR 增强现实的探测帮助,这些都不是单纯靠一个 OTA 升级,或是算法就能实现的特性。