专家谈特斯拉事故:“自动驾驶引发的事故”这一认识有误
扫描二维码
随时随地手机看文章
2016年6月30日,媒体报道了一则令人震惊的新闻:美国特斯拉汽车公司的纯电动汽车(EV)“Model S”在开启“Autopilot”功能行驶时发生了致死事故。美国交通运输部高速公路安全管理局(NHTSA)已就此展开调查。这起事故是否存在技术课题?是否会对世界各地正在加速开发的自动驾驶技术产生影响?就这些问题,记者采访了从事自动驾驶相关业务开发的英特尔事业策划及政策推进总监、名古屋大学客座副教授野边继男。(采访人:近冈裕)
1、这起事故为什么会发生?
野边:从美国警方发布的声明来看,事情是这样的。2016年5月7日下午3时40分许,Tesla Model S使用“Autopilot”功能在佛罗里达州莱维县(Levy County)的1条四车道高速公路上行驶。这时,1辆大型拖挂车越过两条车道,向Model S方向左转。Model S随即冲向前方几乎与其垂直的拖挂车,在从拖挂车下方钻出,撞击护栏两次后,撞上电线杆停了下来。驾驶员当场死亡。
图片来自互联网
对于这起事故,特斯拉汽车作出了如下解释。“在利用车载摄像头观察前方的情况下,拖挂车白色的侧面突然覆盖住了之前识别到的蓝天。摄像头未能识别出拖挂车,自动紧急制动没有启动”。对于这样的解释,我们需要进行分析,判断驾驶员在正常驾驶时如果遇到同样的情况,紧急制动系统能否启动以避免事故发生。
另一方面,在这次的案例中,驾驶员也有可能误会或是过于相信Autopilot的“自动驾驶”能力。在这一点上,特斯拉汽车和NHTSA可能会因为没有充分告知驾驶员和市场而受到指责。
2、通过哪些技术手段可以避免这样的事故?
野边:要想让紧急制动启动,除了配备不擅长瞬时曝光调整的摄像头之外,估计还需要结合使用79GHz毫米波雷达和光学雷达等,更准确地识别前方出现的物体,掌握并预测周围汽车和拖挂车的不规则运动。
另外还可以使用能够应对光线剧烈变化的摄像头。或是加入HDR(高动态范围)功能,通过拍摄常规曝光,以及曝光过多、曝光不足的图像,将这些图像进行合成,在不同的光线强弱条件下捕捉恒常图像。
3、这起事故可能对今后的自动驾驶技术开发产生哪些影响?
野边:日本恐怕会出现抨击(批评)自动驾驶技术的论调。其实,现在的Autopilot并没有实现自动驾驶功能。截至目前,NHTSA还不允许市售汽车使用自动驾驶功能在公路上行驶,这次的事故并不是“自动行驶中发生的事故”。
实际上,自动驾驶的定义还比较模糊。NHTSA在2013年提出的“汽车自动化定义”方案中,将汽车自动化分成了“0~4级”。0级代表完全没有自动化。1级代表方向盘、油门和制动器这三个项目中,有1项以上独立实现了自动化。2级代表方向盘、油门和制动器中,有2项以上复合联动,实现了自动化。3级以上才是自动驾驶。
此次发生事故的Model S配备的当前版本的Autopilot,自动化水平属于NHTSA定义的2级以下,“最终责任由人负责”。NHTSA制定的“汽车自动化定义”在国际上得到了广泛认可,可以看作是自动化开发的方针。但是日本只翻译了该定义的一部分,而且有些解释还是错误的。这使得日本人与部分特斯拉用户都误以为目前的Autopilot实现了自动驾驶。似乎有媒体称本次事故的原因是“人工智能误判”等,离谱得令人无语。
在前面提到的方案中,NHTSA现在认可的自动驾驶仅仅是“公路测试”,并且作出了严格指示,以免在这一阶段发生事故,但方案也明确指出,没有事故的发生,技术就不会进步。因此,NHTSA要求企业在发生事故后,毫不隐瞒地上报详细情况。
NHTSA的最终目的还是要推进自动驾驶技术的开发。但愿日本对于此事的错误报道,不会阻碍日本的自动驾驶技术开发进程。
(本文来源于日经技术在线,内容均来自于日经技术在线,本文作为分享转发。)