无人驾驶竞争现在什么情况
扫描二维码
随时随地手机看文章
无人驾驶,暗潮汹涌。
从行业巨头行动来看,他们正在抓紧一切机会拉开领跑优势。Autopilot正变成特斯拉的重中之重。
9月26日,特斯拉Version 10.0正式推送。与此同时,特斯拉Autopilot部门成立以来的第一起收购重组正在进行。
10月1日,外媒CNBC率先报道,特斯拉已经收购自动驾驶感知创业公司DeepScale。
大洋彼岸的中国,也有进展。自动驾驶初创公司小马智行(Pony.ai)日前发布消息称,小马智行与广汽集团通过在Aion LX车型正式量产上市前紧密合作,共同打造了全球首款基于该车型的L4级自动驾驶车辆。
据介绍,该款L4级车型将被应用于双方的无人驾驶示范运营中,并面向公众提供自动驾驶移动出行服务。这将L4级无人驾驶应用向前推进了一大步。
L4级的无人驾驶车辆能干什么?小马智行和Deepscale的感知深度融合优势体现在哪儿?当前无人驾驶领域到底是怎样一种竞争态势?本文将进行解读。
(本文共2600字,阅读约需要10分钟)
L4级,从概念到落地
汽车行业内是有两套关于智能驾驶分级的标准的,目前主流的方法是根据智能汽车上可实现功能的差异对车辆进行智能化的分级定义,通常分为4到6级。
如根据2016年美国汽车工程师学会(SAE)的分类,无人驾驶自动化的程度可以分为六个阶段,从L1到L5进步的顺序依次体现在操作执行、环境监控、动态监视任务和行驶情景。其中,L0级是无任何自动化功能;L1辅助驾驶;L2部分自动驾驶;L3有条件自动;L4高度自动驾驶;L5完全自动驾驶,即真正的无人驾驶。
目前全球基本只处在无人驾驶L2到L3的水平。比如L3级别的奥迪A8 、宝马5系等等已量产。
L4级别,作为概念被很多无人驾驶企业提出过,但一直被视为离量产还有距离。
因为根据L4的分级,已经达到了超高度自动驾驶的程度,也称为高度自动化。这个级别的自动驾驶汽车可以自主地完成对车辆的操控,对周边复杂环境地监测和判断,具有更高程度的人的意识,可以自主应对绝大部分的路面情况。
在2018年11月1日百度世界大会上,百度与一汽共同发布L4级别无人驾驶乘用车。按照计划,2019年底实现小批量量产,2020年大批量投产,首批开放城市将会有北京、长春、海南等。
同时,滴滴在L4级无人驾驶应用也进行了部署。通过有3个激光雷达和7个摄像头,中间层设有7个摄像头,以覆盖车周360度的区域,滴滴测试车以图像数据来感知周围障碍物的信息,根据路线给车辆底层的线控系统发送控制指令,比如油门、刹车、转向信息,从而控制车辆,实现L4级别的自动驾驶。
2019世界人工智能大会在上海举行,滴滴创始人、CEO程维在会上提出,“无人驾驶一定可以指数级降低交通事故发生,会尽快推动自动驾驶载人测试在上海落地”。目前,滴滴在上海已取得自动驾驶路测牌照。
深度融合方案的竞争
其实,当前L4级别量产车的推出也和工信部的规划相匹配。
根据2018年12月工信部印发了车联网产业发展行动计划:至2020年,车联网用户渗透率达到30%以上,新车驾驶辅助系统(L2)搭载率达到30%以上,联网车载信息服务终端的新车装配率达到60%以上。具备高级别自动驾驶功能的智能网联汽车实现特定场景规模应用L3级集成技术水平大幅提升。
L4级别车辆出现,对下一步的高度自动化驾驶的落地,起到了极大的支撑作用。
同广汽集团在Aion LX车型上实现L4级别无人驾驶,背后是小马智行的技术沉淀。经过多环境多工况的道路测试和数据积累,人工智能在软硬件优化上的突破,小马智行完成了一次又一次的系统整体优化,持续降低资源占用,更好地支持复杂的深度学习模型。
PonyAlpha还有更优化的硬件平台:激光雷达、摄像头、毫米波雷达等传感器拥有一体化的适配方式,大大提升集成度和可靠性。基于小马智行的多传感器深度融合技术,搭配PonyAlpha方案的车辆能够根据不同的路况和驾驶场景智能地得到精准的感知数据。
确实,多传感器融合目前看来已经成了通往自动驾驶的必由之路,更多的传感器数据往往也意味着更高的安全性。
但数据融合并不是一件简单的事,目前的竞争也围绕在了对于数据融合解决方案的竞争上。
我们将目光转回在刚被特斯拉收购的Deepscale。
DeepScale是硅谷一家专注于自动驾驶感知技术的公司。公司CEO Forrest Iandola接受国内科技媒体雷锋网的采访时表示,他们能将深度学习同时用于摄像头以外的传感器数据上,如雷达与激光雷达,并在较为廉价的嵌入式设备上提供感知解决方案。
Forrest表示,其多传感器融合方案的优势,一是体现在物体检测的准确性上,二是跨传感器的可移植性(Portability)上。
多传感器融合分为两块,第一块是传感器同步技术,第二块是基于融合数据开发的算法。
简单的传感器融合,不外乎就是每个传感器的数据能大致在空间跟时间上能得到对齐。而整个多传感器融合技术的核心就在于高精度的时间以及空间同步。
精度到什么量级呢?举个例子,比如时间上能得到10的-6次方,空间上能得到在一百米外3到5厘米的误差,这是一个典型的技术指标。当然,多传感器同步技术的难度与时间和空间的要求是一个指数级的增加。在百米外能得到3cm的空间精度,换算成角度是0.015度左右。
在无人驾驶当中,毫米波雷达、相机、激光雷达和超声波都是完全不同的传感器,让他们在时域跟空域上得到这样的精度是非常难的,需要对机器人技术以及机器学习优化技术有非常深的理解。
所以,多传感器深度融合技术,极具优势的解决方案,成为能够决定无人驾驶公司是否能够跑出来的关键。
在L4曙光已到,L5尚未来临之前,技术和方案的不断优化,仍将成为无人驾驶领域的常态。
来源:搜狐