在分析台湾嘉义Tesla撞击事故之前,我们先看几个公开的Autopilot自动驾驶在一些特定的Corner case的实际表现。这些视频资料都来自于美国Tesla车主和技术爱好者的实际测试,可信度很高,可以作为我们对比分析的基础。
参见上图。Tesla Model 3在以60mph(96Kmph)的高速前进上了一个高架立交桥,驾驶中控面板上的红色方框框内显示,车主开启了Autosteer和Traffic Aware Cruise Control功能,即开启了Autopilot自动驾驶系统。因为立交桥桥梁路面本身的坡度和弯度,本车Model 3无法通过前置摄像头(三摄像头组合)发现弯道过后实际有车辆滞留并排队的状态,因此车速保持在60Mileph的高速状态。
这里插一句,实际上Tesla车辆前向摄像头一组三个,其中的广角摄像头标称是可以覆盖180度的,因此上图中路面上的一些内容还是可以看见的,比如红色框标注的下立交纵向车道路况以及地面停车场的那些车辆。但由于广角镜头比较有限的覆盖距离,远处真正本车道的路况流量,autopilot并没有反应,因此我们推断此时他看不到,这是个机器没有超过人类的Corner case。
同时上图中还显示了巨大的上立交桥梁,这是我们应该特别注意的。
当车辆高速行驶到如上图位置的时候,距离前面的交通滞留的停车带已经非常近了(目测100-150m),Autopilot已然没有采取任何刹车手段,速度维持在96Kmph的高速度状态。这就非常让人类驾驶员不安了。
各位读者可以联想我们之前的文章回忆并分析,此时此刻,视觉摄像头的主视野Camera和窄视野远距摄像头,一定已经看到了前车车尾,也能看到那个黄色的并道告警标识;车载毫米波雷达,在这个距离下也应该有回波……. 那么为什么即没有采取减速速度,也没有在Autopilot中控屏幕上显示前车车辆呢?
小编的推测是,顶部巨大而横贯越过的高架桥,严重干扰了毫米波雷达的回波质量。而Autopilot在高速度状态下,在纵向其实非常依赖雷达,因为雷达可以送回结构化的数据(比如速度和方位角度);某种程度上讲,毫米波雷达的数据细节虽然很有限,但在高速度的纵向,一定会比视觉信息获取速度更快,处理也更快。但如果地形特征导致毫米波雷达背景杂波巨大,则雷达自身的算法可能会出现反而依赖视觉信号质量进行综合判别的情况。此时对于道路/本车道关键前车信息的判断,成了先有鸡还是先有蛋的问题。
人类司机在此时已经无法保持淡定,接近100公里时速的高速度不是开玩笑,于时过端退出了Autopilot,接管并开始踩刹车,直到车辆进入上图这个状态,Autopilot才在中控台上显示了前车车辆。而此时距离前车目测不到50m了。换句话说,如果司机胆子够大,咬牙不接管/不退出Autopilot,那么这个时候Autopilot才会开始刹车…… 也许就直接是AEB状态了。
怎么样,像不像台湾嘉义的Model 3事故场景?
如上图所示,我们再提供一张Tesla在上一篇技术博文中所提到的,通过软件解锁毫米波雷达的回波信号密度(供货商是大陆),即所谓的“雷达点云”。实际上这个点云的密度和大家所容易联想到的激光雷达Lidar的点云数据密度相差很远。上图中显示经过雷达固有算法(一般来说是聚类和过滤)之后,以然对路旁大量的目标产生有效回波,上图中的黄色斑点即是如此。
仅凭这些回波信号,Autopilot显然是无法能够给本车到的障碍物有效绘制出bounding box的,也就无法实现后续一些列的识别、分类、测速标记等等一些列决定生死的技术处理。所以我们特别关注的重点就是,Autopilot内,雷达和视觉信号,尤其在高速度场景下,依赖关系如何?如果有融合如何融合?如果没有融合,甚至雷达优先,那么又如何克服质量非常有限的雷达信号数据呢?
一句话,自动驾驶的Corner case无穷尽,仿真,仿真优先!
已完成
数据加载中