论文题名: | 无人车基于三维点云场景理解的语义地图构建 |
关键词: | 无人驾驶车;语义地图;三维点云;场景理解;激光传感器 |
摘要: | 无人驾驶车对于周围环境的感知和理解是其实现自主驾驶和地图构建的基础。本文的目的是使用安装在无人驾驶车上的激光传感器获得描述无人车周围环境的三维激光点云数据,然后通过对场景点云数据的理解提取场景的语义描述,最后运用语义描述构建适用于大范围室外环境的拓扑语义地图。为了能实现语义地图的在线构建,需要在场景理解环节有着足够短的耗时。本文提出了三维点云数据的最优深度及向量长度(Optimal Depth& Vector Length,ODVL)图模型。该模型能够将场景的三维点云数据映射为二维灰度图像,适用于多种激光扫描方式,比起传统的灰度图模型有着更好的景物边界区分度以及纹理质量。基于ODVL图模型的场景理解在保证了所需分类准确率的同时,较传统三维点云分类方法在实时性上有明显的提升,为后续的语义地图在线构建提供了保证。 本文对ODVL图进行超像素分割,把分割后得到的超像素块作为分类的最小单元,提取其20维纹理特征。由于ODVL图中的像素点与点云激光点一一对应,每个超像素块都有着对应的局部点云。本文在提取局部点云高程特征的基础上增加了形状估计与方向特征,与纹理特征一起组成分类单元的23维特征向量。针对特征的特点并且考虑到室外场景理解是一个多分类问题,选用Gentle-AdaBoost算法对超像素块进行分类。将分类结果中置信度较低的区域还原为三维点云,并用层次聚类法对点云聚类。分析聚类后点云的轮廓以及点云分布特征,完成对低置信度区域的再次分类。对于分类结果中由于分割和聚类不准确导致的错分点,本文提出了一种基于语义约束的点云校正方法。提取分类置信度较高景物的面性区域,并对区域中的错分点进行校正。 通过场景理解,能够获得无人车周围环境的语义描述。构建语义地图前,需根据语义信息对场景中的景物聚类,以提取每一个独立景物的类别、大小、位置等信息。本文将无人车左侧与右侧激光的三维点云数据按规则划分为环境节点,将无人车行驶过的轨迹与附近地面按规则划分为道路节点。并为环境节点与道路节点生成拓扑关系,得到室外环境的拓扑地图。随着无人车的运动,不断有新的环境被感知和理解,现有的语义地图中的节点信息需根据情况实时地更新,拓扑结构根据信息变化实时地调整,从而生成面向大范围室外环境的拓扑语义地图。通过实验分析,本文的场景理解算法在整体准确率达到0.868的前提下,对包含约9万个点的场景,理解耗时小于0.7秒。与栅格地图等相比,本文的语义地图在保留大量语义信息的情况下占用的存储空间大为减少,且构建过程快捷高效。 |
作者: | 常欢 |
专业: | 控制理论与控制工程 |
导师: | 朱瑞军;庄严 |
授予学位: | 硕士 |
授予学位单位: | 大连理工大学 |
学位年度: | 2016 |
正文语种: | 中文 |