融合视觉和激光测距的机器人 Monte Carlo 自定位方法
融合视觉和激光测距的机器人 Monte Carlo 自定位方法
作者:李永坚
定位是机器人确定其在环境中所处位置的过程,是实现移动机器人自主能力的基本问题,利用粒子滤波器解决全局定位是近年来的研究热点。机器人的定位方式取决于所采用的传感器。目前使用较多的传感器有视觉传感器、激光传感器、里程计和惯导系统、超声传感器和 GPS 定位系统等。激光测距仪由于具有测距范围大、精度高、环境适应能力强等优点,因而在结构化环 境中的机器人上获得了越来越多的应用,但是当机器人使用单一的测距传感器在走廊等对称环境下很难精确定位。而视觉传感器能够提供丰富的环境信息,基于视觉的粒子滤波定位受到了普遍关注,但是视觉信息特征提取时间比较长,没有测距传感信息提取那么快速。现有方法主要针对单一传感器或同质传感器进行机器人定位,为了有效地利用异质传感器感知信息对室内环境下目标状态进行精确估计,在考虑激光测距传感器和单目视觉单传感器粒子滤波的基础上,提出一种不受感知模型限制的异质传感器信息融合的粒子滤波定位方法,并进行实验验证。
1 传感器模型
1. 1 测距传感器模型
激光测距仪是一种基于 TOF( time of flight) 原理的高精度、高解析度外部传感器。与声纳传感器相比,激光测距仪具有更高的距离与角度分辨率、极短的采样周期和较低的测量噪声; 与图像传感器相比,具有不受光线影响、处理方法简单和数据精度高等优点。激光测距传感器提供了传感器相对于环境中某个环境特征的相对距离和方向,扫描数据可用极坐标表示。
由于进行实验的走廊和办公室为结构化室内环境,激光地图采用几何地图构建方法。在每个采样时刻,激光测距仪对机器人周围环境进行扫描,得到一帧距离数据,通常是环境中的一组采样点。对采样点进行分隔,并用线段进行拟合,然后将环境特征线段组合的局部坐标转换成地图的全局坐标,得到环境特征线段组合与地图的对应关系。同时计算线段的各种几何统计特征,如: 均值、各阶矩、方差、协方差、离心率、特征值与特征向量,并存储到地图数据库形成地图库。最后由粒子滤波器对机器人进行位姿估计。
1. 2 CCD 摄像机模型及图像特征提取
摄像机是移动机器人通常使用的一种外部传感器,针孔摄像机模型是视觉成像普遍采用的理想模型。按照针孔摄像机的成像原理,在一定条件下可以将像平面中的像素坐标还原成机器人坐标系下对应的三维坐标。
目前比较常用的特征提取方法有 SIFT 算子和Harris 算子,由于特征提取复杂度高、生成的特征点太多以及特征集合整体显著性不高,造成算法计算量较大,实时性较差,难以应用于实时性要求较高的机器人定位系统; Harris 算子计算简单,提取特征点均匀,对图像旋转、灰度变化、噪声影响和视角变化不敏感,采用文献[8]中 Harris 角点检测法进行图像特征的提取。
2 算法实现
Monte Carlo 定位作为一种概率定位方法,原理基于贝叶斯算法,通过从传感信息递归估计位姿状态空间的概率分布来实现定位。
MonteCarlo 定位实现的基本形式与 Markov 定位方法相同,都有基于运动模型的更新和基于感知模型的更新两个过程。对基于感知模型更新部分进行改进,假定激光测距传感器和视觉传感器的观测是独立的,考虑到多传感器系统可同时提供多个独立的测量值,因此利用这些测量值的随机性,根据每个测量值依次对粒子进行调整,从而改善粒子分布状态。 在 Monte Carlo 定位方法中,粒子集通过感知模型重新设置权值。在基于视觉的定位中,感知数据是由位姿场景图像提取的特征组成的特征向量。当两幅图像的 Harris 角点生成后,寻找两个图像特征点集之间的匹配点对,是求解图像变换参数的关键。采用角点邻域相关匹配初步建立角点对应关系,然后利用马氏距离仿射变换不变性原理删除误匹配角点对。机器人通过运动模型进行粒子集的预测更新后,视觉传感器概率更新模型和测距传感器概率更新模型相结合对粒子进行更新。
3 实验结果及分析
在 GRANDAR AS-R 移动机器人上进行了实验,实验环境为室内实验室环境。将机器人后轴中点作为坐标原点,CCD 摄像机和激光传感器中心点位于与机器人后轴垂直且通过后轴中点的平面内。激光测距仪型号为 SICKLMS200,扫描范围为 180°,扫描精度为 0. 5°,距离范围是 0. 05 ~ 20 m。进行水平方向的距离测距。
由于双目视觉传感器双摄像机的观察位置不同、同一空间点在两幅图像上投影点的灰度值并不完全相同等原因,存在匹配二义性。本实验平台采用单目摄像传感器1 /4 type super HAD CCD、有效像素 768( 水平) × 494( 垂直) 、水平视角 6. 6° ~ 65°。由于不能直接用双目视觉传感器进行景深的求解,利用环境特征地图进行匹配。
在训练阶段,人工控制机器人沿着规划好的路径行走,测距传感器每隔 1 s 采集一帧数据和对应的位姿一起保存,形成测距地图数据库。图 2 为激光测距位姿估计实例。同时按距离间隔 20 cm、角度间隔 45°采集样本图像,对原始图像数据库中每帧图像提取特征后,特征和图像对应的机器人的位姿一起保存,形成参考图像数据库。利用当前激光测距数据和地图数据库数据匹配时,由于图像完全匹配的几率几乎不存在,故利用当前图像获取的特征和参考图像数据库里面的特征进行相似度匹配,然后采用本文提出的融合算法完成粒子滤波定位。
定位初始时,粒子集的最大数目为 5 000 个,最小数目为 100 个,粒子滤波器以最大数目粒子集启动,粒子均匀分布在整个环境中。使用融合的传感器感知信息,粒子不断更新,粒子收敛到很小的局部地方,当粒子分布偏差小于预定的熵,定位结束。
利用信息融合的粒子滤波方法能够明显提高多传感器系统状态估计精度。当机器人在办公室环境进行定位时,测距数据和可视数据结合,定位误差很快收敛,粒子集比使用单类传感器的收敛时间缩短了 14. 3% 。图 4 给出了定位过程中的定位误差曲线,在定位初期,由于没有估计误差的协方差矩阵的知识,误差比较大,但误差很快得到抑制。
x 方向平均误差为 15. 42 cm,y 方向平均误差为 16. 44 cm,转向角平均误差不超过 6°,移动机器人的自定位精度提高了 16. 7% 。启动阶段误差较大是因为机器人由静止到运动对控制器有较大冲击造成的; 而地面状况的局部不平整和机器人轮子打滑也会造成位姿误差的突变; y 方向误差大于 x方向误差的原因在于测试环境较为狭长,影响了激光测距的精度,误差收敛较慢。
4 结束语
提出了一种新的室内环境下基于视觉特征和测距信息相结合的机器人粒子滤波定位方法。视觉传感器和激光测距仪分别建立各自的感知模型,在感知更新阶段只涉及到粒子的概率模型,相当于对粒子进行了二次感知更新,并且避免了信号物理意义不同的问题。测距感知信息更新的快速准确性和视觉观测的全局位置确定性相结合,粒子集更快地收敛到机器人的实际位置,从而实现机器人的全局定位。本算法可为机器人完成各种任务提供定位功能,同时为机器人异质传感器信息融合提供新的思路。实验表明所述方法能够有效地解决机器人的自定位问题,提高了移动机器人的自定位精度。
本文章转自爱学术(aixueshu.com),如有侵权,请联系删除