编者按:本文来自微信公众号“爱范儿”(ID:ifanr),作者:朱海,36氪经授权发布。一个,两个,三个,四个……旗舰手机摄像头从 2016 年开始,以大约每年 1 个摄像头的数量在增长,有人调侃说麻将「八筒」将是所有智能手机摄像头的终极归宿。

今年全新一代 iPhone 发布前,不少人推测 iPhone 12 Pro Max 会配备第四颗摄像头,           没想到 iPhone 12 Pro 系列在宝贵的「第四颗摄像头」位置,放置了一颗 LiDAR(激光雷达)。

不按「常理」出牌,一直是苹果的「常理」。

LiDAR 是什么?

iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?

竖着看,iPhone 12 Pro 系列手机摄像头模组右下方圆形黑色区域即为 LiDAR           

LiDAR 的全称是Light Detection And Ranging,中文名激光雷达,是以发射激光束探测目标的位置、速度等特征量的雷达系统,由激光发射机、光学接收机、转台和信息处理系统等组成,可获得目标的距离、方位、高度、速度、姿态、甚至形状等参数,从而进行探测、跟踪和识别。

抛开专业术语,通俗理解 iPhone 12 上的 LiDAR,它就是一个能探测物体距离和记录深度信息的微型装置,和手机摄像头差不多大小。

工作的时候,LiDAR 可以实现两个重要功能。

1.测算物体离手机的大致距离

iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?

通过发射肉眼不可见的激光束来测算距离

2.记录投射范围内事物的深度信息

iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?

目前苹果给出的 LiDAR 范围是最远五米,也就是说,搭载 LiDAR 的 iPhone 12 Pro 系列手机,理论上可以测算和记录 5 米范围左右的距离和深度信息。

LiDAR 和 ToF 区别在哪里?

说到估算物体距离和记录深度信息,不少安卓厂商早在部分机型上搭载了 ToF(Time-of-Flight,飞行时间)传感器来实现这两个功能。

例如 P40 Pro 有一颗 3D 深感摄像头(ToF),可以深度感知物体深度信息,实现大片般的景深效果。

iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?

目前部分手机厂商大多采用 iToF(间接飞行时间传感器),而 LiDAR 属于 dTof(直接飞行时间传感器)。

iToF 和 LiDAR 虽说都是 ToF,但区别不小。

第一,发出的「信号」不同。

iToF 发出的是经过正弦波调制,明暗强度呈规律变换的光信号。LiDAR 发出的是激光束。

iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?

dToF 原理

第二,估算距离的原理不同。

iToF 靠感知正弦波光信号的差异来「估算」其从发射到反射回来的距离。LiDAR 是激光直接测算距离。

iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?

iToF 原理

第三,精度范围、测算速率和抗干扰能力不同。

iToF 的信号很容易被干扰,测算精度随着距离变远而下降,测算也相对较慢,比较适合用于厘米范围内的测距。

LiDAR 的激光束抗干扰能力强,理论上测算精度不随距离变远而下降,测算更快,更适合远距离测距。

最后,           iToF 更易小型化,dToF 集成小型化难度更高,所以两者有较为明显的商用场景差异,iToF 大多数用在手机上,dToF 比较常用在汽车和无人机等大型装置上。

iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?

汽车雷达

LiDAR 比 iToF 快、准、远,但集成难度更大,成本更高。苹果能把 LiDAR 集成在 iPhone 12 摄像头模组里,想必是花了一番心思的。

为什么苹果选 LiDAR?

或许 iPhone 有一天会变成四五六摄手机,但在被人讨论「 iPhone 拍照掉队了吗」的紧要关头,选择把宝贵的「第四颗摄像头」位置给 LiDAR,足以可见苹果对未来的布局多么重视。

苹果究竟想干嘛?

iPad Pro 2020 的官方网页上,苹果直截了当给出了答案,LiDAR 现阶段主要就是为 AR(Augmented Reality 增强现实)服务的。

iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?

在手机摄影几乎到天花板的时刻,苹果选择了一条和其它厂商不一样的路,没有选择上高像素和多倍光学变焦,而是加了 LiDAR,让用户记录「深度信息」。

用户能记录深度信息的好处非常明显,我把它总结为「双向融合」。

一个是现实虚拟化,也就是 AR,可以用摄像系统和 LiDAR 把现实事物的各种信息记录下来,再虚拟展示在屏幕上,从任意角度近距离观察,也打破了时间和空间的限制。

iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?

没有 iPhone 12 的深度信息,也就不可能使用 AR 观看虚拟 iPhone

另一个是虚拟现实化,也就是 VR,可以给虚拟的事物增加现实维度的信息,让虚拟事物在网络里「活」出现实事物的特征。

iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?

有了深度信息,照片不再是一个平面

iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?

动态 emoji 可以看做简化版的 VR,虚拟人物有了真实人物的面部深度信息数据

这两种融合都离不开深度信息,深度信息也是 AR 和 VR 打通的桥梁。比如老师用可以记录深度信息的 AR 设备自拍直播教学,学生戴上 VR 眼镜听课,每个学生看到的老师都是虚拟形象,但虚拟形象的表情和动作细节特征都是一样的,很难再单纯用 AR 或 VR 简单描述。

iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?

再来说说手机

手机对于人类社会来说是什么?

这个问题很难回答。往小了说,它不过就是一台便捷的通讯工具,往大了说,它对人类社会的影响可以说无比深远。

回顾手机出现之后的人类历史,用户对信息处理交换的共性需求一直是去中心化。

一开始用户的共性需求是提升信息交流效率,所以手机的核心功能是打电话发短信。信息交流的中心节点 —— 被线绑住的固定电话、邮件、传真、邮电等被彻底边缘化,如今只是一种特殊场景下的补充工具。

接下来用户的共性需求是打破信息不平衡,进一步去中心化,每个人都想要有自己的声音,所以手机的核心功能变成了社交,大量社交 app 异军突起。

正是由于苹果的全触屏形态产品 iPhone,在恰当的时机精准高效地解决了用户在第二阶段的共性需求痛点,苹果才能打败诺基亚,一跃成为市场综合第一名。

现在,用户的共性需求会是什么呢?

用户需要进一步去中心化,不仅要发声,还要把自己的个体文明尽可能记录并传递下去,让自己的个体文明在人类文明史上留下记录。

iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?

iPhone 广告片展示 iPhone 的生活记录功能

很久以前,芸芸众生是没有历史存在感的,更不能掌握记录自身的工具。手机的出现,让存储在服务器上的数据变成了「个人史书」,这些渺小如蝼蚁的「个人史书」又发挥着无与伦比的影响力,共同组成了一部人类「大史书」—— 人类社会共同的大数据库,个体不再是历史里可以直接忽略的「无名」,也不是可以大笔一挥一笔勾销的某某,而是在人类共同「大史书」里一个个有血有肉的鲜活存在。

现在,LiDAR 给了我们更高维度的「书写」能力,在声音、平面图像、行为习惯等维度之上,增加了深度信息,突破了平面限制。

永生,从深度信息开始

对于普通用户而言,目前 LiDAR 带来的直观帮助还不是很明显,更多属于「有更好,没有也没多大影响」的程度。

它带来的潜藏益处却是非常明显的,如果条件和相机 app 允许,每个人一生中经历的每个场景,每个瞬间,遇到的每个人,看过的每朵花,摸过的每件餐具,每张自拍,都可以被 LiDAR 记录下深度信息,只要时机和技术成熟,数据量足够大,再配合以声音、图像、行为习惯等数据,完全可以在服务器中创造出一个虚拟的世界和虚拟的自己,和真实的世界和真实的自己一模一样,甚至等待科技水平足够高的那天,可以在现实世界中造出一个自己。

iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?

如果《西部世界》里的机器人都有一个对应的真实人类,那么拿到真人的深度信息则是制作机器人的第一步

如果哪天科技更加发达,可以赋予这个虚拟的自己一套「人性的算法」,百年之后,有人想我们了,只需要进入虚拟世界,就能看到一个「活着」的我们,何尝不是做到了另一种形式的永生?