再次赶个晚集吧。我们谈谈上个月底发生在深圳的Tesla Model3和土方车的“极限换道事故”。事故中有点黑色幽默的是,那辆肇事车辆,制造商是比亚迪/BYD。
事故现场的照片还是特别有喜感的,没有不尊重双方车主的意思,只是这个前视图的寓意仿佛是BYD在说,“听说你上半年卖得挺好的?甩我好几条街?那咱们可要较量一下了……”
虽然只是普通的变道诱发的剐蹭,但是一个是因为土方车质量很大(撞击时必然位移会很小),另一个是因为车主描述Model 3在撞击前有明显的加速度动作,因此上图显示撞击的力度不小,Model 3的右前车头外壳部分撕裂且严重变形了。
直接转帖视频有点麻烦,各位对事故视频资料有兴趣的可以直接移步Model 3车主(@悦乎)在知乎上的账号文章,链接如下:https://zhuanlan.zhihu.com/p/153430293;车主提供了车辆前侧MainCamera(主摄像头)以及Right Repeater Camera(右后侧摄像头)的影像资料。Tesla就这点好,真出个什么事故,只要不是原地爆炸,事故前后的资料还是非常丰富的。
当然,资料丰富不是为了给我们吃瓜用,Autopilot的root账号,估计可以极大地便利Tesla的工程师追溯事故的数据线索,并据此作出事故原因判断,和后续的产品硬软件改进。如果读者有印象,在前几期文章中,我们特别介绍了Tesla软件平台的最新更新版本2020.24.6.1。在这个版本当中我们最主要强调的是Autopilot实现了人类司机不干预的前提下,有条件自动驾驶通过装有交通信号灯的十字路口。但实际这个版本上也交付了一个叫做“Cabin Camera”的功能:在Tesla各型车辆内部,驾驶位右上方的前置摄像头背部有一个视场角面向驾驶舱内部的隐藏摄像头。如下图:
Cabin Camera设计初衷是通过共享车辆的摄像头数据来帮助特斯拉继续开发更安全的车辆。车主能够自主决定是否启用此功能,如果启用后视镜上方的内置机舱摄像头,特斯拉将在发生碰撞或安全事件之前自动捕获图像和简短的视频剪辑,以帮助工程师将来开发安全功能和增强功能。
此功能的激活原理和激活时长在Release Note里面并未涉及。但小编相信这是非常有用的“责任界定”工具。以本次深圳Model 3事故来说,车主声明自己全程手未离开方向盘,但是7月6日Tesla的官方检测声称事故发生时车主的双手处于脱离方向盘的状态,并且没有检测到制动信号。Model 3车主是否踩了刹车可能还无法观测,但是车主是否双手把握方向盘,Cabin Camera是绝对可以看得到的。目前的系统监测人类司机双手是否握住方向盘还是靠方向盘上的扭矩传感器,不够直观。而且在很多事故场景下,比司机双手脱把更严重的是司机走神去做其他事情,这也是Cabin Camera所能覆盖到的。
【特斯拉官方回应小编并未直接看到,而是从公众号“自动驾驶测试验证技术创新论坛”的一篇文章所知。】
罗嗦这么多,我们回到事故本身上。其实事故的模式非常简单,在中国也特别特别常见:高交通流量外场,在慢速行驶条件下,目测事故涉及两车的速度都不超过10Kmph。右侧车道上一辆比亚迪电动卡车T10在遭遇道路障碍之后,在虚线车道上开始强行向左变道。在变道过程中挤压到左侧车道上一辆正常前向行驶的Model 3(处于Autopilot自动驾驶状态)。
其中比亚迪电动卡车T10的外观如下:
T10的外廓尺寸为:9610mm×2550mm×3210mm,其中关键的长度为9.6米。(Tesla Model3长度大概只有4.6米)
根据Model 3车主提供的现场图片和两辆事故车的外廓尺寸,小编大致画了事故状态描述图,主要是为了推断事故发生时,Autopilot的逻辑。如下:
绘制这个图的原则是,
1 撞击时,电动卡车T10的车头位置目测已经横向跨线一半的样子;
2 撞击时,电动卡车T10的车位位置目测已经越线;
3 撞击时,Model 3未做避让动作,基本位于车道中心;
4 电动卡车的长度为Model 3的一倍多一点;
根据以上原则,既可以绘制出如上的俯视图。实际上在Autopilot内部也有这个原理基本一致的转换动作,视觉摄像头取得的外部视觉信息,将会被转换成“鸟瞰图/Bird view”,Autopilot系统在完成转换之后,才能据此来做目标预测(他车)运动或者路径规划(本车)。
同时注意在上图中,小编标注出了本次事故所涉及的两个视觉传感器的位置,一个是前置摄像头组(可能是Main Camera,也可能是Fish eye),另一个是右侧RepeaterCamera,位于前车右轮的上方,视场向后。
我们在之前的公众号文章中,讨论过多次Autopilot对于目标识别体系的设计和实现。有消息源表明,在FSD/HW3.0硬件平台之前,HW2.5(基于nVidia的GPU平台)由于计算力有限,而无法同时利用Tesla车身上的全部视觉传感器(共8个)。依据Tesla已经公开的关于Autopilot多任务神经网络架构的描述,很多任务,都要涉及超过一个以上的多摄像头联合操作,才能准确识别各种目标。如下:
上图就是描述的Autopilot作为一个多任务为核心的神经网络架构,在处理“Cut-in”时,是如何对视觉信息进行利用的。我们可以看到至少用到了Main、Narrow、Repeater三个摄像头的视觉数据,并基于此做出有威胁的他车换道/Cut-in动作识别,并根据正确即时的识别基础,来规划自车的运动路径。
但问题是,深圳车祸的Model 3搭载的Autopilot硬件平台为HW2.5,我们有理由相信,这个平台上在处理Cut-in识别的时候,仅利用了前向摄像头(近体目标应该是以Main为主,也许是Fisheye)单一的视觉输入数据。这是因为硬件平台的限制。
那么我们再回到事故描述图(也可以参考事故视频),前向视觉所提供的内容,在有斜度的情况下,Autopilot将其识别为一辆卡车是没问题(在累计海量数据和长时间训练之后,不存在识别不出来的问题)。但可能有问题的是,前向视觉在这个角度上,极有可能无法分辨目标的准确距离,从而做出目标不构成前行威胁的预测。
这个现象我们在海外对于Tesla的实车测试中观察到许多次,Autopilot总是无法准确识别停在路边,侵占1/3车道的临时停车,而总是处于不减速通过状态,直到人类司机手动退出自动驾驶状态。也许这就是Lidar优于视觉识别的最佳点,也是让Waymo无法放弃的最大优点。
与此同时,Model 3的右侧Repeater摄像头也按照事故描述图中的位置,观测到车辆在快速逼近,如果各位看过事故视频就知道,Repeatercamera可以看到完整后两轮在跨国虚车道线而快速靠拢。如果此时是HW3.0平台,那么在判断Cut-in的时候,autopilot会将这个画面和前向摄像头画面联合识别,理论上它可以识别这是一部车,正在鲁莽地并线…….这是正确的识别,从而做出左偏甚至急刹的自我保护动作(这也是大多数人类司机的选择,处理cut-in的神经网络会很大程度学习人类行为,从而规避风险)。但现在的问题是,HW2.5平台上,Autopilot对于autosteer和autospeed(traffic aware speed control)的使用基础,只有前向摄像头和割裂状态的repeater摄像头,那么如果前向忽略了卡车,而Repeater在告警,则可以解释model 3在此时希望加速脱离从侧面慢慢靠拢的巨大目标了。
事故Model 3车主坚持认为Autopilot未能识别卡车的想法大概率是不正确的。Model 3在这种在中国常见的“霸凌式”变道的压迫下(越大的车辆,越经常使用这种极限换道压迫技术),反应也确实不尽人意。这是Tesla必须要考虑在中国建立独立的autopilot cloud的原因。
Youtube上有车主展示过Autopilot系统在多摄像头下对于外界目标(真实路况)的识别,基本上是各自为战的,不存在联合识别,漏检、重检在非FSD/HW3.0平台上比比皆是,可见技术进步还是个漫长的趋势。
但小编个人认为,我们应该给予Tesla足够的信心,同时严格规范对于Tesla车辆以及所有带有L2.5ADAS系统的驾驶规范,安全第一!
【本文基于技术推测,仅用于技术讨论。我们追求美好的自动驾驶未来。】
车右智能
info@co-driver.ai
备注:
1 题图来自互联网搜索;
2 图片1/2来自于Model 3车主的知乎文章,链接如下:https://zhuanlan.zhihu.com/p/153430293;
3 图片3来自于https://teslascope.com/teslapedia/software/2020.24.6.4;
4 图片4来自于“卡车e族”,http://news.bitauto.com/hao/wenzhang/1105903;
5 图片5来自于小编自己绘制,Model 3的俯视角度外廓和Tesla车辆传感器分布来自特斯拉站点介绍;
已完成
数据加载中