解读无人驾驶发展难点及现阶段技术手段
扫描二维码
随时随地手机看文章
一、自动驾驶还需要较长的路要走
ADAS、自动驾驶、无人驾驶、智能汽车等词语风靡科技圈,如果哪个智能硬件团队或科技公司无法与这些关键词建立关联,颇有被世界遗弃之感。但是,如果客观的去分析,真正意义上的自动驾驶尚有较长的路要走。
1)不存在完美的传感器件
无论是何种程度的智能驾驶,第一步都是感知,也就是感知车辆周边的负责的路况环境。在这个基础上才能做出相应的路径规划和驾驶行为决策。感知所采用的各种传感器包含:各种形式的雷达、单目摄像头、双目摄像头等,或是由这些传感器进行不同组合形成的感知系统,而这些传感器件各有利弊。
比如:激光雷达对雨雾的穿透能力受到限制、对黑颜色的汽车反射率有限;毫米波雷达对动物体反射不敏感;超声波雷达的感知距离与频率受限;摄像头本身靠可见光成像,在雨雾天、黑夜的灵敏度有所下降。
2)从90分到100分要走的路才是最艰难的
如果人去开车,一年中发生些小的刮蹭、磕碰是再正常不过的事。但如果自动驾驶系统发生这些事故,就要成为关注的焦点甚至不被接受。其实,我们对机器智能的可靠性要求要远远超出人工智能的可靠性。每种机器智能设备的投入使用都是在其可靠性远超人工之后才被允许的。所以,自动驾驶的目标不是“像人一样的去开车”,而是“在安全性、舒适性、合理性完全超过常人的状态去开车”。
3)复杂的路况问题是自动驾驶的壁垒
相对于欧、美、日本,中国的各种路况要复杂的多。仅仅红绿灯的形态不下100种;各种交通标识的形态没有统一;车道线的宽窄、间隔参差不齐,甚至许多道路没有车道线。所以,高速公路的自动驾驶、某段路线的自动驾驶与真正意义上的自动驾驶是两个层面的问题,这些都是在实现完全自动驾驶之前需要我们解决的问题。
4)法律方面的壁垒
除了技术问题,还有我们社会的法律问题。这些技术要在法律层面得到认可,就要说清楚一系列的技术问题,还要有大量繁杂的数据支持。法律上认可的过程也一定会是漫长的一个过程。当然,这些工作都在同时开展着。
综上所述,自动驾驶需要一步一步的走,不会一下子跳跃过去。ADAS系统会是自动驾驶的第一个阶段,当我们实现了危险驾驶行为的准确预警,积累了大量的经验和使用数据后,下一步的工作才有可能实现。
二、ADAS与行车记录仪对成像系统的要求截然相反
可以确定的讲,凡是在行车记录仪成像系统的基础上添加ADAS功能的,都是在炒作概念。目前车上用的智能硬件多是行车记录仪、云镜等产品,在这个上面开发ADAS功能,只是厂家赚取噱头的方式。
其根本原因是ADAS与行车记录仪对成像系统的要求是截然相反的。
行车记录仪的目的是记录车辆周边的状况,看的越清晰越好、越全面越好。这就需要成像系统具有超高的分辨率、超好的色彩还原性、超大的广角镜头,视角增大意味着焦距的缩小。
而ADAS的要求如下:
一是看的越远越好,看的越远就能有更加充裕的时间做出判断和反应,从而避免或者降低事故发生造成的损失。而焦距越长看的会越远。
二是只关注车辆行驶区域内的障碍物,所以是窄视角,也就是长焦距。这样能降低车辆两侧障碍物(如路基、栏杆等)对系统误报的影响。
三是要求黑白图像。彩色图像在sensor表面进行了镀膜或分光的带通过滤光谱,虽然提升了人眼的感知体验,但实际上降低了信噪比或者说信息量。这对真正意义的图像计算不利。
综上所述,在短焦距只关注周边景物的行车记录仪成像系统的基础上,进行ADAS的研发是不切实际的。
三、自动驾驶的传感器主要有三大类
1)雷达
雷达又分为激光雷达、毫米波雷达、超声波雷达等类型。激光雷达又可以分为单线雷达、双线雷达、多线雷达等。
如果想要解决后装的问题,或者说准前装的问题,雷达首先是被排除的对象。原因如下:第一,成本下不来。不管单线的、双线的、还是64线的,最便宜的在 1000元左右,有的甚至高达数十万,比车还贵。第二,雷达的安装和标定是个非常繁琐的工作。不同的车型,安装的方式会各不相同,都需要进行各自的精确标定和调整,这个周期短则数天,长则数月。
当然,雷达的优势在于测算的精度非常高,探测距离远。
2)单目摄像头
单目摄像头的大致原理如下。先通过图像匹配进行识别(车型、行人等),再通过大小去估算距离。也就是在估算距离之前要知道这是个什么目标,是汽车还是行人,是货车、SUV还是小轿车等。而做到这一点,需要建立并不断更新一个庞大的样本特征数据库,然后对实时拍到的图像视频进行识别。这会导致系统无法对非标准的车型、物体、障碍物进行识别,从而无法进行预警。只有在识别成功完成后,才能根据大小、面积、尺寸、或其它特征进行距离的估算。
单目的优势在于成本较低,对计算资源的要求较低,系统结构相对简单。其缺点在于要保证较好的识别率,必须不断更新和维护好样本数据库;无法对非标准障碍物进行判断;距离并非真正意义上的测量,准确度较低。
3)双目摄像头
双目和单目有一个共同的特点,就是拍摄的图象是二维的,而雷达是单线或多线的。
双目的原理与人眼相似。人眼能够感知物体的远近,是由于两只眼睛对同一个物体呈现的图像存在差异,或称“视差”。目标距离越远,视差越小;反之,视差越大。视差的大小对应着目标物体的远近。这也是3D电影能够使人有立体层次感知的原因。所以说双目系统对目标物体距离感知是一种绝对的测量,而非估算。
双目系统的优势如下:一是成本比较低,但是比单目系统要高;二是没有识别率的限制,因为从原理上无需先进行识别再进行测算,而是对所有障碍物直接进行测量;三是精度比单目高,直接利用视差计算距离;四是无需维护样本数据库,因为对于双目没有样本的概念。[!--empirenews.page--]
双目系统的缺点在于:计算量非常大,对计算单元的性能要求非常高,这使得产品化、小型化的难度较大。所以在芯片或FPGA上解决双目的计算问题难度比较大。
国际上使用双目的研究机构或厂商,绝大多数是使用服务器来进行图像处理与计算的;也有部分将算法进行简化后,使用FPGA进行处理,但双目配准的效果又收到较大程度影响,存在很多噪点与空洞,这对后续的计算不利,存在安全风险。
目前,中科慧眼技术团队实现了在芯片中对双目的高速计算,算法一方面要保证无噪点、空洞的干扰,另一方面要反映出细小障碍物的存在,在这个前提下将芯片计算效率提升至15fps。
上图为实际场景与计算得到的距离的对应关系(不同饱和度颜色代表不同距离,从暖色调至冷色调为距离由近及远)。从右图可以看出,距离计算的二维图像中,噪点与空洞被很好的抑制。色调(距离)的过渡是平滑过渡,没有跳变。
中科慧眼的双目方案和国际上其他方案对相同高速公路实测对比结果如下图所示:
双目摄像头的计算原理:
上图中的人和椰子树,人在前,椰子树在后,最下方是双目相机中的成像。可以看出右侧相机成像中人在树的左侧,左侧相机成像中人在树的右侧,这是因为双目的角度不一样。再通过对比两幅图像就可以知道树的视差小而人的视差大,因为树的距离远,人的距离近。这就是双目三角测距的原理。
离摄像头远的物体在双目图像中的disparity小,离摄像头远近的物体disparity大。如果距离无限远,双目几乎是没有差别的。所以国际上大多数双目系统的基线距离是十几厘米,和人眼的距离是相近的。双目系统可以实时把拍摄到的内容转化成距离。ADAS一个很重要的作用是碰撞预警。碰撞预警需要关注距离的变化,需要估计即将碰撞的时间。有了距离测量,才会有距离变化,有距离变化才会有碰撞时间的估计,最后才会有预警。
算法这里只讲概念,国际上有两种主流算法。一个叫ELAS,一个叫SGBM。这两个算法是公开的。
我们的双目方案相比传统的算法具有如下优势:
一是效率,在芯片上的效率达到15fps,在FPGA+ARM架构上的效率可以达到40fps。
二是效果,就是对于小障碍物的识别。既要做到没有杂点和空洞,又要表现细节。否则小的障碍物,比如一条横着的栏杆就无法识别,增加驾驶的风险。下面的图表现的是小物体和行人的探测上中科慧眼双目方案与国际上其他算法的对比。
(Our为中科慧眼算法效果、其它为国际流行传统方法的处理效果)
四、大规模产品化自动驾驶路还很长
国际上有Google,丰田等公司研制的无人驾驶汽车进行了大量的路测,在国际上具有较大的影响力。他们使用的是“全副武装”的雷达阵列+摄像头的模式,是一种侧重于技术积累、品牌传播、前瞻性研究的方式。计算核心使用的是位于车辆后备箱中的计算机阵列或服务器。仅仅车顶上方的velodyne多线激光雷达就高达数十万元。而这种方式去实现无人驾驶无论从成本、体积、便捷性等方面考量,都尚不具备大规模普及与推广的条件。国内也有很多十余家团队目前在做本地化的自动驾驶系统研发,像中科慧眼的双目产品样机已经完成,正在进行大规模路测。从产品理论技术原型走到真正被用户接受的产品,恐怕要有很长的路要走。