基于视觉显著性的移动机器人环境建模
扫描二维码
随时随地手机看文章
引言
未来几年,全球服务机器人的市场将继续快速增长,要求机器人能完成大规模任务,而大多数机器人处于各种复杂的动态环境。面对移动的物体,移动机器人需要预测和估计动态物体的运动情况,这对于移动机器人的导航和控制来说具有重要意义。
环境建模即对移动机器人工作空间的有效表达。本文研究的机器人工作在室内未知静态环境下,区分视野内的可行区域,获取环境信息,才具备导航的先决条件。
1双目立体标定
本次标定实验是在移动机器人IntRob双目摄像机上进行的,左右摄像机平行前置安装,摄像机基线长度b=12mm,距离地面高度为76mm。左右摄像机为一对CCD工业相机,型号为MV-VD078sM/sC,最高分辨率为1024×768,像素尺寸为4.65um×4.65um。
通过立体标定得到双目相机的外参矩阵:
旋转矩阵R:
平移矩阵T:
2基于标定结果的双目立体校正
立体视觉校正又称极线校正,其目的是消除立体图像对在垂直方向的视差,保证两个图像在校正之后是对准的,使得立体匹配更可靠,其具有匹配速度快的优点。
通过前面对图像对的立体标定,获取到旋转矩阵R和平移矩阵T。定义重投影矩阵Q,Q矩阵包含有图像坐标和摄像机内参矩阵,那么给定一个二维齐次点和其关联的视差d,将此点投影到三维中,就可以得到空间一点的三维实测距离。
3基于视觉显著度的立体区域匹配
传统立体匹配算法的匹配过程中,只将图像看做数据,对所有像素点不分主次。视觉显著度是一种符合人类视觉感知的新的图像描述指标,可以模拟人类的视觉注意,故提出利用视觉显著性特征改进立体区域匹配。本文中图像视觉显著性的计算模型是基于SpectralResidual理论来建立的。图1所示为原图像与视觉显著度融合并且校正后的左右图像。
图1融合校正图像
分别对图像做BM、SGBM和融合视觉显著度的BM算法匹配,其中融合BM块匹配算法时间短、匹配效果好,本研究课题采用该方法。为了得到更好的障碍物轮廓效果,对图像进行腐蚀膨胀操作来去除噪点,图2(a)(b)(c)分别为去噪后BM视差结果、去噪后SGBM视差结果、去噪后融合视觉显著度的BM结果。
4障碍物边缘轮廓坐标
本文中将地面以上的部分均视为障碍物,在2中介绍的Q矩阵,建立障碍物的三维点云,并将三维点云投影到二维平面(此处选择图像中部的高度投影),这样可以减少运算时间,同时不影响障碍物信息的完整性,在MATLAB20l2b环境下显示,如图3所示。
图3中,横坐标表示水平方向的实际距离,竖坐标表示深度方向的实际距离。表l中是实际距离与实验结果距离比较,在水平方向上误差较小,在深度上误差相对较大,除因匹配造成的轮廓信息缺失外,基本可以实现对障碍物轮廓的提取。
5结语
本文从实现立体视觉的几个关键步骤出发,先对摄像机进行立体标定,获得摄像机内外参数进行立体校正和匹配,然后选取BM块匹配算法将障碍物从复杂环境信息中分离出来。视差图中障碍物信息有部分缺失,实际测距结果相对误差满足要求,完成了在室内未知环境下移动机器人环境地图的创建。