Tesla全球首起“自驾”车祸致死揭秘

这些年人工智能(AI)出尽风头,在各行业取代人类,甚至连围棋造诣都已经高过人类。K机哥深感机器迟早要统治人类的节奏,于是莫名开始担心起AI爆发的奇点,甚至开始YY什么时候人机大战……Cut

(主编:你歪楼了,我们要说的是Tesla害死人事件!!!)

好吧,K机哥其实是觉得Tesla是当前科技和汽车融合的典型代表,一想到高科技嘛自然联系到智能识别和判断,这就跟智能计算分不开。智能计算的目的就是将人取而代之,但问题是“它”们真的可以取代我们吗?这个话题再次随着tesla的首起自动驾驶车祸的发生被推到了风口浪尖。

1

2

车主是一位名叫Joshua Brown的40岁大哥,曾是美国海军海豹突击队的一员,经常在社交平台秀自己双手离开方向盘的惬意照片。

3

4

事发时Joshua Brown惬意的在开启自动驾驶模式行驶的Model S上玩游戏(另有媒体报道说是在看《哈利波特》),然后全速撞上了转弯的白色拖挂卡车,然后就没有了……

8
这件事情很快成为了全球新闻焦点,K机哥一度以为应该集中声讨Tesla,但随后发现势头不对,大量报道认为这是Tesla自动驾驶系统行驶2.1亿公里之后的第一次重大事故,认为它已经远远低于人类驾驶的事故概率。

9

这多少有些为自动驾驶招魂,为Tesla洗白的嫌疑。对比去年统计的全球每年约124万人死于交通事故的数据,Tesla的这一例确实显得九牛一毛,智能驾驶的安全可靠貌似还真有道理。但随着K机哥仔细分析这次事故的发生原因之后,我只想说这种招魂完全就是“布偶谢特”!Tesla花钱请的“水军”吧。

10

OK废话不多说,要想搞清楚这个事故的发生原因,先让我们来看看Tesla Autoplot自动驾驶系统究竟是个什么东西。太复杂的不说了,K机哥简单地将它理解为如下图所示的三个主要部分。

test2
Tesla宣传这套系统的识别率十分牛X,3个模块都独立工作,又协同运作,哪怕一个模块产生了作用就能避免碰撞、擦挂等事故的发生……总之牛X到爆。那么又怎么会发生本次致人死亡的重大事故呢?

官方宣传是漏检了,三套系统都同时漏检了!!

11

好了,接下来看看官方所说极少概率下的漏检是如何发生的,K机哥从三个系统的角度整理了一下!

1.首先是 Tesla Autopilot的MobileyeEyeQ3视觉系统

1、Tesla Autopilot选用的摄像头为长焦镜头,很多时候不能窥视障碍物全貌。比如本次事件当白色拖挂卡车进入视觉区域内的时候,摄像头只能看到悬浮在地面上的卡车中部,而无法看见整个车辆。

2、Mobileye的工程师曾表示,EyeQ3系统有许多难处理的情况(Corner Case),漂浮物体是其中比较难以解决问题。例如道路救援车以及双层的车辆运输卡车,Mobileye很难理解漂浮在空中的物体。

3. 大面积白色障碍物检测效率低下。Mobileye的单目摄像头进行障碍物检时,拥有检测距离和速度上的经验表现。但对于大面积白色物体的障碍物检测时,无论是学术界的最新算法,还是Mobileye都不能很好得解决识别率低下的问题:由于大面积白色物体很难从图像中提取特征点,使得基于点的相机姿态求解没有足够的数据输入,导致大面积白色障碍物的漏检率非常高。

test3
OK,我们不难发现三大关键词:观测不全、大面积白色、离地!好了,这不是驾驶员喝醉了看不清,也不是开车睡觉的看不见,而是清清楚楚地看见,明明白白的撞上。这基本意味着所有高底盘大型白色车辆或离地障碍都有可能是Tesla隐形杀手。

2.接下来是毫米波雷达系统

这个失效的原因更简单,也更搞笑,主要是其安装位置过低。一般的毫米波雷达垂直视角在 5 以内,Tesla的毫米波雷达安装在车头靠近地盘的位置,导致当Tesla靠近拖挂卡车侧面时,雷达波束从下侧穿过了卡车,于是漏检。

3.最后是超声波传感器

对不起,这玩意的测量距离过短(5-10米左右),在高速行驶中基本毫无用处,无法探测纵向障碍物用。来低速停停车什么的可能还勉强。

6
客观地说,完善后的机器肯定比人靠谱,开车更安全。人开车出现问题主要是注意力不集中,酒后影响判断等因素导致,而机器不会累。但是现阶段的机器还不够完善,Joshua大哥用他的生命检验出了Tesla的一个Bug。K机哥不禁在想,那还需要多少生命去验证呢?这恐怕不仅仅是一个法律层面的问题。

7

最后提醒广大Tesla车主,你的爱车颜值爆表、科技感爆棚,但早上装X,准备拍张上班途中回笼觉的照片时,千万不要真的睡着,要时刻注意周围有没有白色大卡……