当前位置: 首页> 学位论文 >详情
原文传递 基于GNSS和视觉惯性信息融合的智能车定位研究
论文题名: 基于GNSS和视觉惯性信息融合的智能车定位研究
关键词: 无人驾驶;视觉地图;同步定位;地图构建;位姿估计
摘要: 近年来,随着5G、大数据和人工智能等技术的迅速发展,及其在汽车行业地广泛运用,推动着传统车企向智能化转型。智能汽车为实现无人驾驶功能,首先要感知和获取周围环境的信息,实现对自身位置的准确定位。智能车中常用方法采用高精度GNSS(Global Navigation Satellite System,全球导航卫星系统)实现定位,高精度GNSS在卫星信号良好时,定位精度可以达到厘米级,在信号遮挡区域,精度大幅下降,无法使用。现今,SLAM(simultaneous localization and mapping,同步定位与建图)技术成为学术界热门的研究方向,SLAM按传感器的不同可分为激光SLAM和视觉SLAM,激光SLAM相对比较成熟,定位精度较高,但传感器成本大。视觉SLAM定位精度相对较低,但视觉传感器的成本较低,获取的信息量丰富,多与其他传感器融合使用。现今,基于视觉信息的制图与定位方法成为学术领域的研究热点,有着良好的应用前景。但基于视觉信息的制图与定位方案较少在车辆平台使用,主要是车辆的位姿估计的精度较低,同时不适用于较大区域的建图,针对这些点,本文的主要研究内容如下:
  针对常用视觉SLAM方法在车辆平台位姿估计精度较低的问题,提出一种基于双目视觉惯性的位姿估计方法。前端采用网格划分的双阈值检测提取FAST特征点,后采用金字塔光流追踪,得到前后帧之间的特征匹配信息,粗略地估计出相机的位姿,接着通过视觉惯性初始化完成初始相机和IMU(Inertial Measurement Unit,惯性测量单元)的对齐,采用紧耦合形式,构建目标函数求解最优估计。最后与公开的开源算法对比,验证本文提出算法的有效性。
  其次,针对高精度GNSS在信号遮挡区定位精度低下,而基于视觉惯性的车辆位姿估计在大规模定位不可靠,提出了基于GNSS和视觉信息融合的制图定位。按照定位场景的不同,建立视觉地图的方式相应有两种:一是在信号遮挡区,直接利用VI-SLAM(Visual-Inertial Simultaneous Localization and Mapping,视觉惯性同时定位与建图)技术生成视觉特征地图;二是在信号未遮挡区,融合GNSS信息得到的地图。根据已建立的地图,仅利用视觉传感器信息就可以进行回环检测和重定位。
  此外,仅依靠VI-SLAM技术在室外遮挡区域内进行定位时,会存在累计误差,本文引入额外约束,对建立视觉地图进一步优化,提出一种地图对准与优化方法,利用卫星信号遮挡区的首尾高精度GNSS定位信息,求出两点的相对位姿关系,把这关系作为闭环约束,进一步来优化遮挡区内部的视觉地图。
  最后,对设计的基于GNSS和视觉信息融合的制图定位方法进一步验证。实验分为定量实验和定性实验。定量实验是在基于GNSS与视觉信息融合的定位方法的基础上,对本文提出的GNSS闭环约束进一步验证,通过添加GNSS闭环与单纯视觉闭环对比,并绘制绝对轨迹误差图,验证了GNSS闭环可以把误差控制在合理的范围内,取得良好的定位效果。定性试验是在真实的信号遮挡区上测试的,进一步证实了本文融合算法方案,可以构建全局一致性的视觉特征地图,提高定位精度,良好运用于一般路况定位。
作者: 赵小虎
专业: 车辆工程
导师: 邹斌
授予学位: 硕士
授予学位单位: 武汉理工大学
学位年度: 2021
检索历史
应用推荐