四年过去了,特斯拉对毫米波雷达的应用有长进吗?

来源:公众号“燃云汽车”(转载公众号“车右智能”)
2020-06-15
1889

在观察完佛罗里达撞击事故之后,我们惊讶于Tesla的Autopilot在光线不佳的晨曦弱光条件下,居然在两个功能模块——FCW和AEB上同时、且完全出现了漏检的状况,而导致未能给人类驾驶员报警。那么当我们回顾2016年Tesla的那篇技术博文时,就很奇怪当时为什么Tesla会有一个看起来很清晰的技术判断,哪怕是在公开的博文中,也透露了大量的技术细节……但……最终却没执行(或者执行了却完全没效果?)了。这是一个非常大的诧异。也许真的是传感器的水准限制了Autopilot的整体进化能力,毕竟Tesla不可能面面俱到覆盖所有的传感器开发。

 

我们把那篇博客的原文贴在这里(2016年9月),小编加注:

 

“虽然我们的软件版本V8.0有几十个小的改进,但最重要的升级是搭载了毫米波雷达。该雷达是2014年10月作为Autopilot硬件套件的一部分添加到所有特斯拉汽车上的,但只是作为主要相机和图像处理系统的辅助传感器。经过仔细的考虑,我们现在认为它可以作为一个主要的控制传感器,而不需要相机确认视觉图像识别。这是一个非常重要且违反直觉的问题,因为这个世界在雷达上看起来很奇怪。【小编:Tesla在2016年确定,毫米波雷达不再是视觉Camera的辅助信息来源,在某种/某些情况下,毫米波雷达的回波特征,可以直接作为后续自动驾驶动作处理的输入。但是很明显,这个独立的雷达监测/判定机制在佛罗里达车祸中未起到应有的作用。我们在佛罗里达事故照片中很容易发现清晰和庞大的横向金属结构,雷达在这种场合下漏检的可能性非常低。有些消息指出可能Tesla在Model 3车身上安装雷达的位置过低而导致波束穿越集卡车厢的地盘而漏检的可能性非常站不住脚,因为在50-100m的距离上,雷达波束早就宽过挂车底盘距离地面一米的高度了。】

 

毫米波雷达的波长很容易穿过雾、尘、雨和雪,但任何金属的东西看起来都像一面镜子。雷达可以看到人,但他们看起来是半透明的。由木头或彩绘塑料制成的东西,虽然对人来说是不透明的,但对雷达来说几乎和玻璃一样透明。另一方面,任何盘形金属表面不仅具有反射性,而且将反射信号放大到实际尺寸的许多倍。一个废弃的汽水罐在路上,它的凹底朝向你,看起来可能是一个巨大而危险的障碍物,但你肯定不想为了躲避它而猛踩刹车。

 

因此,使用雷达制动最大的问题是避免误报。如果你要撞到一个又大又结实的东西,猛踩刹车是至关重要的,但如果你只是要撞倒一个汽水罐,就不是这样了。有很多不必要的刹车事件,往好了说是非常恼人的,往坏了说是会造成伤害。【小编:这就是我们之前提到过的设计自动驾驶系统的出发点,是确保可以接受的“假阳性”还是“假阴性”比例?这不是一个非错即对、非左即右的选择,而是每个设计都有自己的设计目标和保障手段。】

 

解决这个问题的第一部分是有一个更详细的点云。【小编:依赖全新的雷达软件算法获取更多的回波细节信息,这个不是没人做过。但效果是不是能独立支撑雷达数据足够可靠,这都是未经市场检验的。】V8.0版本软件用相同的硬件解锁了对六倍多的雷达目标的访问,每个目标有更多的信息。第二部分是将这些每十分之一秒发生一次的雷达快照组装成世界的3D“图片”。【小编:依赖雷达本地处理器或者自动驾驶域控制器,比如FSD强大的算力。】我们很难从一帧图像中分辨出物体是运动的还是静止的,也很难分辨出虚假的反射。通过将几个相邻的帧与车速和期望路径进行比较,汽车可以判断某物是否真实,并评估碰撞的可能性。【小编:这个说法和坊间流传的通俗说法相似,即毫米波雷达擅长测速和测距,但那时针对运动中的物体,这也是为什么在航空领域雷达就很好用;一旦转入静止状态或者低速度状态,雷达对于目标的识别和性质判断就很难,这个也不是增加点云数据就可以实现的,因为雷达点云再多,也是粗糙的。远远比不上Lidar,更比不上视觉信息。】

 

第三部分要困难得多。当汽车驶近位于路面隆起处或桥下的高架公路路标时,这通常看起来像是一个碰撞路线。GPS的导航数据和高度精度不足以判断车辆是否会从物体下方通过。等到车开得很近,路面坡度发生变化时,再刹车就太晚了。【小编:一句话,雷达数据够不够可靠,你们自己细品。接着看后续读者会明白,Tesla还是将其严格定位于Level-2的自动驾驶系统实现范围之内,“假阴性”的处理并不可怕,因为人类司机兜底……. 可是问题是,出人命的都是胆大妄为的Tesla车主。】

 

这就是快速学习派上用场的地方。最初,车将不采取任何行动,除了记录路标、桥梁和其他固定物体的位置,根据雷达绘制地图。然后,Autopilot系统将自动比较何时刹车,并将其上传到特斯拉的数据库。【小编:这是Karpathy在各种场合都仔细讲过的Shadow mode,当人类司机做出Autopilot出乎意料的操作时,司机的动作包括:油门开度、方向盘转角和刹车深度数据,都会被上报,和传感器捕捉到的各种数据被标注后记录于数据库中,以用于优化自动驾驶模型。】

 

如果有几辆车安全地驶过一个给定的雷达目标,不管自动驾驶仪是开着还是关着,这个目标都会被添加到地理编码的白名单中。【小编:总的来说,这是聪明但是不够可靠的方法。因为autopilot只是认识到这个地点的性质和雷达特征的对应关系,但并非真正可以通过雷达数据解读这个地点的地理上的安全属性。】

 

当数据显示,虚假刹车事件将是罕见的,汽车将开始使用雷达系统数据进行温和刹车,即使相机没有注意到前方的物体。随着系统置信度的提高,当系统发生碰撞的概率接近99.99%时,制动力将逐渐增大到最大。这可能并不总是完全防止碰撞,但碰撞速度将显著降低到不太可能对车内人员造成严重伤害的程度。【小编:Tesla在2016年给自己的目标就是要使用一般级别的车规毫米波雷达来独立决定自动驾驶状态下的刹车动作,但在2019年却依然为能派上用场,令人叹息。】这样做的效果,再加上雷达能透过大部分的视觉模糊,就是即使在零能见度的情况下,汽车也应该几乎总是正确地踩刹车。

 

更进一步,特斯拉也可以“获取”前一辆车下方回来的雷达信号,使用雷达脉冲信号和光子飞行时间(ToF)来区分信号——甚至进行刹车,当尾随一辆对于视觉和雷达都是不透明的车。前面的车可能会在浓雾中撞上不明物体,但特斯拉不会。【小编:多么美好的技术愿望,不仅前车,前车的前车也能觉察得到,且区分得出来。但是,你会,至少你偶然会。我们在一些Tesla车主的推特或者博客中确实见识过惊人的Tesla车辆对于道路上意外事件的响应/规避,但那些没有能躲闪或者正确而及时刹车的场景呢?你怕是永远也看不到了。】

 

此外,使用雷达回波控制前方两辆车,提高了对不可见的严重刹车事件的响应和反应时间。”

 

最后小编贴一张现在比较流行的所谓“4D雷达”的点云效果,如下图:注意图中的白色圈代表着视觉和点云的对应识别。你是机器智能的话,你会认为值不值得为那堆红点踩一脚刹车呢?

  

                     

补充,我们在Model 3的官方用户手册上,还是看到FCW和AEB都会依赖雷达和视觉信息的联合处理结果而采取动作。


声明:本文内容及图片由BC-AUTO转载至网络,信息来源于公众号车右智能。


收藏
点赞
2000