当前位置: 首页> 学位论文 >详情
原文传递 无人车场景的图像语义分割与语义SLAM研究
论文题名: 无人车场景的图像语义分割与语义SLAM研究
关键词: 无人车;驾驶场景;导航系统;图像处理;语义分割;同步定位;地图创建
摘要: 图像的语义信息作为图像理解的重要信息,在无人车的场景理解和定位构图方面具有重要的指导作用。图像的语义分割是提取图像语义信息的常用技术,而随着卷积神经网络的发展,基于深度学习的方法已经超越了传统方法而成为图像语义分割的主流方法。无人车行驶过程中,夜间无光的场景相比于白天的场景更具有安全隐患。而不同于白天可见光成像设备采集的图像,夜间通过基于温度分布的红外热像仪获取的红外图像具有纹理信息少,噪点多,对比度低的特点,因此分割难度更大。利用深度学习的方法同时准确地实现对无人车白天和夜间场景下的图像语义分割,获取无人车周边环境的语义信息,能够扩展无人车的场景理解能力,有效地帮助无人车进行驾驶决策或指导无人车实现自身的定位和环境构图。
  视觉同步定位与地图创建(Visual Simultaneous Localization and Mapping,VSLAM)技术随着机器视觉的发展,逐渐在无人车导航领域发挥着重要的作用。目前的VSLAM技术大多基于图像的低级特征或像素点,这不仅无法满足特征的长期不变和静态的需求,同时大量的冗余特征增加了地图存储的复杂度,因此对维护一个长期的地图十分不利。利用深度学习提取的图像语义信息指导VSLAM特征的选择,使VSLAM系统趋向于选择一些静态和长期不变的特征,有利于无人车实现长期定位。
  本文主要研究基于无人车驾驶场景下的图像语义分割和语义SLAM。研究内容主要包括两部分:一、基于改进DeepLabv3+的无人车图像语义分割;二、基于信息论的改进DeepLabv3+网络与ORB-SLAM2相结合的语义SLAM技术。
  论文的主要创新点如下:
  1、提出了一种改进的DeepLabv3+网络,实现对无人车获取的图像的语义分割。针对无人驾驶场景,引入了一种密集连接的ASPP模块,使网络生成的多尺度特征在能覆盖更大的尺度范围的同时能够被正确的编码,并且不会带来额外的计算时间损耗。同时为了恢复更多在降采样过程中丢失的空间信息,将原DeepLabv3+网络Encode模块中的多层低级特征图融入Decode模块,有效的提升了分割效果。
  2、提出了基于信息论的改进DeepLabv3+网络与ORB-SLAM2相结合的语义SLAM方法。该方法将改进的DeepLabv3+网络分类结果的不确定性引入到特征选择管道中,通过在状态联合熵中加入改进的DeepLabv3+网络的分类熵,并选择在当前状态熵和状态联合熵之间具有互信息较大的特征,显著降低了车辆状态的不确定性,同时要求被检测出的特征属于静态对象,具有很高的可信度。在保证地图精度的同时大幅缩减了地图的大小,有利于长期的定位与建图。
作者: 刘致驿
专业: 控制科学与工程
导师: 孙韶媛
授予学位: 硕士
授予学位单位: 东华大学
学位年度: 2019
正文语种: 中文
检索历史
应用推荐