事故频发的自动驾驶真的安全吗?
扫描二维码
随时随地手机看文章
FBI,华裔工程师,最后一刻买的回国机票,起飞前被抓,苹果指控、监控视频录下的从苹果自动驾驶实验室拿东西的身影……这些堪比美剧的情景真实地发生在7月7日的美国圣何塞。有网友说,与好莱坞大片只差一首主题曲。
这部大片是“苹果前工程师张晓浪窃取公司自动驾驶机密事件”,“幕后导演”正是——自动驾驶。从2009年谷歌制造了第一辆自动驾驶汽车开始,就在短短的不到十年之间,自动驾驶好像就从科幻电影变成了现实。而今,自动驾驶是全球汽车行业乃至高科技领域最炙手可热的方向之一,各路资本疯狂涌入争相竞逐,无论是互联网科技公司、传统车企、新兴车企竞相投入研发力量,不惜代价争夺技术人才……然而这种狂热的背后,是愈演愈烈的自动驾驶技术主导权之争;是至今无一辆量产自动驾驶汽车;是全球出现多例自动驾驶汽车行驶中致人死亡事故……
对于目前自动驾驶存在的一拥而上的诸多乱象,吉利控股集团董事长李书福表达了担忧,在参加2018智能汽车国际研讨会时, 他说,“搞自动驾驶不能一窝蜂,自动驾驶汽车必须保证安全,这是自动驾驶技术研发的初衷。”
“自动驾驶汽车不会一帆风顺,几天前,在美国发生了自动驾驶汽车的致死事件,我们对受难者家属失去亲人表示同情,这起事故再次提醒我们无论汽车技术如何发展,安全是最重要的,自动驾驶汽车的安全也是倍加重要的。”
而对于持续火爆的热词“自动驾驶”来说,越来越多有意无意的夸大宣传,让人们对“自动驾驶”充满憧憬和膜拜,甚至有的是迫不及待。
那么,当下的自动驾驶真的比人类自己驾驶安全吗?
自动驾驶真的安全吗?如果开展一项调查,问:什么样的自动驾驶功能你才会去使用?我相信99%的人会说,肯定是安全。还有那1%的人会拒绝回答——这难道不是废话?那么,如何证明自动驾驶是安全的?或者说,如何确定自动驾驶比人类安全?
· 自动驾驶比人类安全?无法验证的伪命题尽管特斯拉自动驾驶出车祸致死的案例已经不止一次,但特斯拉CEO埃隆·马斯克一直坚称,自动驾驶比人类驾驶安全10倍。不知道马斯克这一说法的证据从何而来,或许他还不知道人类驾驶的真实水平。根据美国2015年所做的里程统计数据,全年美国的汽车总行使里程4.8万亿公里,平均每200万公里出现一次受伤事故;平均每1.47亿公里出现一次致死事故。这些数据足以证明人类的驾驶水平安全系数还是很高的。
而如果要验证自动驾驶比人类驾驶安全多少倍之类的测试,应该根据与人类一样的真实驾驶里程数据进行测试,以平均每200万公里出现一次受伤事故为例,北京到广州的距离约为2200公里,自动驾驶需要行驶500多个往返不出现一个受伤事故,而要行驶1.47亿公里不出现致死事故,才可能从平均水平上证明自动驾驶比人类驾驶安全。
实际上,包括Waymo、Uber在内的自动驾驶汽车对外所宣称的行驶实测里程远远达不到这个数字。而据外媒报道,2017年特斯拉在递交给加州车辆管理局(Californian DMV)的报告称其在加州的自动驾驶测试里程数仅为数百英里。
这样看来,自动驾驶比人类驾驶安全10倍或者多少倍的定论,目前的测试条件下,根本没法验证。
而从2015年7月1日谷歌自动驾驶样车在加利福尼亚州芒廷维尤市街头测试时发生追尾三人受伤开始,自动驾驶的车祸事件就没停过。
· 自动驾驶车祸事件回顾2015年7月1日,谷歌公司一辆雷克萨斯牌改装样车在公司总部所在地--加利福尼亚州芒廷维尤市街头测试时发生追尾事故,事故中有三人受轻伤。
2016年1月20日,京港澳高速河北邯郸段发生一起特斯拉直接撞上一辆正在作业的道路清扫车,司机当场身亡。
2016年2月14日谷歌公司无人驾驶汽车在街头测试时与一辆公共汽车的右侧方相撞,所幸没有人员受伤。
2016年5月7日一辆2015款特斯拉Model S在佛罗里达州高速公路上与一辆垂直方向开来的挂车发生相撞,驾驶员不幸遇难。
2016年9月23日,谷歌无人驾驶测试车在美国山景城遭受了一辆道奇商用货车的严重撞击,致使无人驾驶测试车受到了严重的损坏,并未造成人员伤亡。
2017年3月24日,一辆Uber自动驾驶试验车在亚利桑那州坦佩市与一辆普通汽车发生了碰撞。Uber自动驾驶汽车发生侧翻,另一部车严重受损,所幸没有人员伤亡。
2017年11月8日,美国拉斯维加斯无人驾驶巴士在获准上路的第一天在低速行驶的情况下,与一辆货卡车相撞,所幸没有人员受伤。
2017年12月7日,一辆Cruise自动驾驶汽车在变道过程中刮蹭了一辆摩托车。事故造成摩托车司机肩部受伤。
2018年1月10日,由福特投资的Argo AI公司在美国宾夕法尼亚州匹茨堡发生了一起交通事故,事故最终导致两人受伤
2018年1月12日,一辆特斯拉Model 3翻入了一条小溪,事故中的司机显然是在拐弯时失去了控制,导致车辆腾空而起,然后跃入溪流之中。
2018年1月22日,在洛杉矶405高速公路上,一辆特斯拉Model S撞上了一辆停在路边的消防车,所幸无人员伤亡。司机告诉消防部门,当时汽车处于自动驾驶模式。
2018年3月18日晚十点左右,美国亚利桑那州一名女子被Uber自动驾驶汽车撞伤,之后不幸身亡。这是全球首例自动驾驶车辆致行人死亡的事故。
不到4年的时间,12起车祸,3起命案。尤其是全球首例自动驾驶致行人死亡事故,引起轩然大波,自动驾驶的大佬们再强作镇定,一句“相比起人类驾驶导致的上千起事故,自动驾驶只是小概率事件”的解释显然不能给铺天盖地的质疑声以满意的答复。
要让民众接受自动驾驶,安全,是最基础的条件。而自动驾驶的安全该如何定义?
· 自动驾驶安全:不同国家不同定义人类需要严格的交通驾驶证考试进行考核合格后才能上路驾驶,相比起人类,自动驾驶的安全考核标准更加庞大和繁杂,需要整个生态和交通系统进行合作共同命题。
同时,就像不同国家的人类考驾驶证的内容和方式也不尽相同一样,不同国家有不同的驾驶安全定义。比如欧美国家是接近苛刻的驾照考核制度以及极其严格的法律法规所造就的高素质汽车驾驶习惯,同时他们的公路交通发达、规范、管理维护合理。而我国就存在乱闯红灯、强行变道、加塞等现象,少部分地区还存在公路交通设施极其不完善。自动驾驶的安全要根据不同国家的文化、驾驶习惯和交通状况而形成的安全标准进行定义。
这样来看,自动驾驶安全标准与一个国家的文化、环境、交通、配套设施等因素密切相关,要制定自动驾驶安全的统一定义或者全球标准基本不太可能,而对比当下自动驾驶技术趋于同质化,并在不同国家、地区之间“复制粘贴”现象已成常态,更是为自动驾驶安全增加重重阻碍。
尽管如此,据福特公司发布的《2018年福特趋势报告》显示,83%的中国受访者表示对自动驾驶车辆的未来充满希望。那么,安全的真正意义的自动驾驶是怎样的?如何能够实现?
真正的自动驾驶离我们有多远?根据美国际汽车工程师协会(SAE InternaTIonal)对自动驾驶等级的定义为:
需要说明的是,目前全球市场上具有一定“自动驾驶”功能的车,即配备了ADAS系统的量产汽车,都只属于L2级别的。而根据外媒的评价,特斯拉Autopilot技术的真实情况并不是像它自己一直宣称的是L3高度自动驾驶技术,最多也就是L2.5的等级。而按照目前SAE的分级标准,L3等级才是他们认为自动驾驶智能化分级的最低阶段!
简单来说,即使是一辆在功能上满足L3级别标准的汽车,在行驶时也要受限于特定的场景。只有在路况和车况完全合乎标准的安全条件下,驾驶人员才可以激活车辆的自动驾驶系统,将汽车交给车载智能化系统进行操控。即便如此,在车辆自动驾驶过程中,人类驾驶员也必须随时准备响应车载智能系统发出的请求或者警报,以便随时接管车辆,用于处理那些系统没有能力应对的特殊状况。
所以,在国际上,L3高度自动驾驶又被称为:有条件自动驾驶。
实际上,特斯拉Model S具有上述自动驾驶特征,但在实际驾驶过程中还存在较多技术盲区。然而很多人质疑的是,如果在车辆自动行驶过程中还需要人类驾驶员集中精力随时准备接管车辆,那自动驾驶的意义何在?
只能说,对于发展中的自动驾驶技术来说,L3是一个底层的、基础的、让人类慢慢适应自动驾驶的过程。因此,有业界人士曾这样评价,按照目前的状况,从有条件自动驾驶到无条件的自动驾驶(超高度自动驾驶),即从L3到L4之间,仍然隔着一个爱因斯坦的距离。
最后目前来看,自动驾驶技术不仅仅是一项先进技术那么简单,更是将改变人类社会方方面面的生态工程:包含了汽车改造、交通道路和社会基础设施的建立,还有人类的认知、法律、伦理、道德等人文因素。
具体到生态系统方面,一要等待物联网、车联网的建立,智能汽车系统和车载智能操作系统的完善,以及人工智能算法、5G、云计算、大数据等核心技术领域取得新的突破;二是建立健全的适应自动驾驶发展需求和应用的法律法规。
全社会,包括政府、公司、民众等都需要为自动驾驶的安全、自动驾驶生态系统的建设提供全方位的保障。
相信在未来,自动驾驶将会是人类主要的出行方式。当整个适合自动驾驶的车联网时代、万物智联的时代到来,真正意义上的自动驾驶才能实现,人类的交通和生活方式将会迎来革命性的变化。