论文题名: | 面向无人艇的视觉多源SLAM系统 |
关键词: | 无人艇;同步定位与建图;视觉特征融合;特征信息注意力集中;时空同步;惯性测量单元 |
摘要: | 随着国家对智慧交通、智能驾驶产业发展的大力推进,自动驾驶技术得到迅速发展。因此,水面无人艇的自动驾驶技术也在不断发展。在未知的水域中,基于视觉的同步定位与建图技术(SimultaneousLocalizationandMapping,SLAM)是实现无人艇的自主导航的一项关键技术。然而,当SLAM应用在无人艇上,由于无人艇的晃动导致特征点跟踪不稳定,会增大定位误差。同时水面环境中存在植被、桥梁和河岸等遮挡物,导致全球导航系统(GlobalNavigationSatelliteSystem,GNSS)无法在全场景下对无人艇进行准确定位,并且这些冗余视觉特征会增加计算资源的消耗。因此,本文提出一种融合相机、惯性测量单元(InertialMeasurementUnit,IMU)和GNSS的多源SLAM方法,以提高无人艇定位的鲁棒性、精确性和实时性。具体工作及成果如下: (1)针对水面环境下特征点不稳定问题,提出基于多源视觉特征融合的方法。通过提取线和消影点特征,从而提高无人艇的定位精度。具体而言,使用基于多线程扫描的线特征EDline提取和基于光流法匹配方法。在后端优化器中,将线的因子和消影点的因子添加到约束条件中,以此作为新的约束来优化无人艇的定位。此方法已在多个数据集上验证,简单场景下达到了28cm以内的误差,湖泊等复杂环境达到了3m以内定位精度。 (2)针对多源SLAM计算资源占用高问题,提出基于点特征与线特征的注意力集中机制。机制利用IMU作为状态传播和点和线作为观测值,以实现对高鲁棒性特征信息的选择,最后,以消耗计算时间的方式呈现计算资源成本情况。通过该机制减少后端优化时间和降低算法的复杂度,同时保证鲁棒性和定位精度。实验结果表明,该算法为无人艇提供26ms以内的位姿输出,直线行驶达到了60cm以内的定位精度。 (3)针对无人艇定位鲁棒性和精确性问题,提出一种相机与IMU在时间与空间同步的自标定算法,用于解决无人艇在水面使用在线标定时带来的不稳定性以及离线标定的非实时性问题,从而提高无人艇的定位精度和鲁棒性。此外,该算法解决了GNSS信息因为场景变化发生跳变的现象,确保在复杂环境下实现高精度定位和提高鲁棒性。实验结果表明,该算法简化标定流程,融合GNSS后达到了了1.2cm的定位精度。 本文提出的多源SLAM融合算法,通过融合线特征和消影点特征,和点、线特征进行注意力集中机制,在小幅度降低定位精度的同时,减少后端的优化时间。算法简化了无人艇在湖泊运行的标定流程,可提供26ms的位姿输出,同时能够满足无人艇高精度定位。大量实验表明,该算法能在CPU上实现高精度定位和建立稀疏地图。 |
作者: | 植美渝 |
专业: | 控制科学与工程 |
导师: | 鲁仁全 |
授予学位: | 硕士 |
授予学位单位: | 广东工业大学 |
学位年度: | 2023 |