特斯拉释放的Autopilot系统30秒视频解析

来源:公众号“燃云汽车”(转载公众号“车右智能”)
2020-06-17
1913

据报道,Tesla在今年2月份释放了一份大约30秒钟的Autopilot系统路测识别画面。可能有很多人都看过了(应该多是片段),但是对于这份30秒识别结果的解读,资料非常少。小编最近看到一份关于这段识别能力的解读(来自Youtube),角度比较新颖,细节也比较多。非常值得各位参考。

 

众所周知,Autopilot有赖于视觉识别,这段30秒的视觉识别内容,展示了Autopilot越来越完善的视觉识别能力,包括速度和识别细节,都有让人感觉惊艳的感觉。小编未能从视频中判断出有毫米波雷达的参与迹象,只能暂时认为视频中展示的识别能力仅依赖前向摄像头一组(三个)作为传感器的识别结果。

 

以下我们将这30s的视频截取最关键、最有代表性的场景,做个逐一的解释。

       

                     

参见上图,视角是由Main Camera提供的,就是前向摄像头中的主视角摄像头,这个摄像头在覆盖距离和视角上平衡的比较好,通常被用作前向视觉识别的首要来源。左上角是一些车辆运动的基本数据,比如速度:45.4mph,时间和车辆自身位置/姿态等数据。画面主内容就是对于视觉信号的视觉和标注。

 

上图中,注意观察地面的车道线标识,红色框所框出的内容是(从左到右),LA、FA和RA,分别代表左转(Left Arrow)、直行(Forward Arrow)和右转(Right Arrow)的车道线语义信息。这部分识别必须仰仗Camera,Radar和Lidar无法提供类似的目标识别能力。


 

参考上图,Main Camera可以在相当远的距离上,识别停止标识牌,并且提供配套的停止标识线。上图中因为识别距离相当远了,所以在这个距离上还看不到停止线。可能有的读者会认为这是高精地图在起作用,未见得是Autopilot的前向摄像头抓住了那个停止标识牌。但实际上是,Tesla并未配备任何高精度的定位技术和设备,只是采用了标准的GPS定位和导航能力,这也是Tesla的一贯技术观点,尽可能低地依赖外界技术配合,以增加Autopilot的可靠性和全天候能力。

 


 

参见上图,除了识别出停车标识牌之外,还有一个非常有意思的识别能力展示。注意左侧的一列7个分类,是指对于道路总体的情况在经过视觉系统捕捉和FSD识别之后,给出的道路分类建议。首先这是一条Restricted的受限道路(可能是和封闭高速的差异),另外就是我们发现当车子接近前方停车线的时候,Wet-Road/潮湿或者浸水路段的分类项也变绿了。此时在这个角度我们发现前方停车线附近,确实路面有明显的水迹。

 

可能Autopilot是通过大量的积水路段训练之后,具备了对于浸水路段的识别能力。能够识别当前路段的浸水状态,对于安全驾驶意义非凡。


 


当车辆继续向前行驶接近积水最严重的路段时,可以看到道路类型识别分类项中,Raining这一项也变绿了。地面出现明显的水迹,当时是否下雨不清楚,但是按照Rain和Wet组合来处理驾驶风格,是适当的。

 


 

注意上图中的黄色圆圈,其内部的红色叉,意味着Autopilot对于岔路口中非正确行驶方向的判断结果。这里的逻辑应该是这样的,Autopilot仅依赖普通分辨率的GPS位置信息,和即时的视觉识别内容,判定自己当下的行驶位置。并更进一步,可以判定自己对于岔路口的方向选择,如果规划的导航线路是选择左侧,则右侧的岔路车道线会被标记红色叉,以防止道路保持/车道线识别面临无法识别的具体问题。

 

从这个角度看,Autopilot在全力模仿的是真正的人类司机,而非高精密的自动驾驶机器。人类司机并不依赖高精度地图,甚至更早之前都没有导航地图(纸质地图即可),更多的对于方向的判别,还是依赖于人类的智力(识别和判断能力),和对于道路语义的更高级别的识别能力建立和培养。一个有经验的老司机,基本是不会因为没有GPS导航就迷路的。

 

整个视频就只有这30秒长度,但基本上可以给读者一个大致的信息传递,那就是Autopilot的识别能力确实已经具备一般的人类水准。我们可以推想一下,除了极端的Corner case,人类司机在驾驶过程中真正需要即时识别和判断的情况也不会很多。但真正重要的问题是,识别的可靠性问题和一致性问题。这本来应该是机器智能的强项,但最近一段时间的各种车祸事故告诉我们,Autopilot还有很长的路要走。


收藏
点赞
2000