新 iPad 装雷达,可以“看见”啥?((ipad有什么隐蔽的功能))
谁能料到,苹果在最新款 ipad Pro 的镜头模组中加了一个小“雷达”,从外观上看,这个“雷达”的外观和左侧镜头区别很明显,因为它没有镜片,也无法直接用于拍照。
谁能料到,苹果在最新款 iPad Pro 的镜头模组中加了一个小“雷达”,从外观上看,这个“雷达”的外观和左侧镜头区别很明显,因为它没有镜片,也无法直接用于拍照。
那么它到底是干嘛的?
苹果采用的激光雷达 LiDAR,简单来说,发射脉冲激光投射到物体上,再返回传感器中,从而测量目标的距离、形状、体积等,这个过程是纳秒级别的。
LiDAR的应用和苹果的造车梦有点关系,苹果在自动驾驶领域的研究一直都没有落实,但这方面的研究一定程度上有利于苹果在激光雷达上的技术创新和供应链积累。LiDAR 技术就是其中之一,苹果并未将已有的激光雷达技术在自动驾驶方向死磕,早在 2018 年,苹果就申请了相关专利,意在将这项高精尖技术融入日常使用的电子设备中,最新发布的 iPad Pro 就是其中之一。
苹果引入此项技术,并不是为了拍照,而是为了 AR,苹果表示,支持 ARKit 的应用程序都将自动获得 LiDAR 所能提供的特性,并且能极大地缩短 AR 建模的速度,提高测量精度,降低抖动、错位的情况。比如 AR 尺子能更准了,室内设计时的建模能快了。
苹果还演示了一款名为《炽热熔岩》的游戏,游戏通过 LiDAR 对客厅进行建模,再加入岩浆特效,玩家可以跳到家具上躲避熔岩。
苹果把过去应用在汽车、飞机上的模组做小,集成到轻巧的 iPad 中,如何在如此小的体积下实现高精度的测量,是这套技术的核心。苹果并没有采取市面上第三方的雷达供应,而是选择了自己研发。
苹果本身还会融合自家的算法以及摄像头技术,根据苹果官方的介绍,iPadOS 采用全新深度架构,可以和激光雷达探测到的深度点、两个摄像头和运动传感器捕捉的数据相结合,并通过 A12Z 仿生芯片的计算机视觉算法来进一步优化,以更详细地理解场景。
不过从目前来看,应用场景和 App 缺少的确还是硬伤。从苹果演示和介绍的场景来看,还是老一套的三维建模。不过苹果官方表示,已经向开发者释出 iPad Pro 的 ARKit,并预告在今年稍后带来对应的 AR 应用,涵盖生活、医学、游戏、建筑等不同方向的应用。有苹果这个风向标的指引,AR 应用能否成为新的热潮,只能交给时间了。