当前位置: 首页> 学位论文 >详情
原文传递 基于双目视觉的交通场景三维重建算法研究
论文题名: 基于双目视觉的交通场景三维重建算法研究
关键词: 无人驾驶汽车;交通场景;三维重建;双目视觉
摘要: 基于双目视觉的交通场景三维重建技术凭借其稠密的点云重建与成本优势在无人驾驶环境感知任务中具有广阔的应用前景。作为其核心技术,立体匹配的精度决定了基于双目视觉的三维重建效果,然而交通场景的复杂性、场景中目标尺寸的不确定性以及算法参数量大、实时性差等问题给立体匹配任务带来了挑战。因此本文针对立体匹配中的视差不连续问题、细小物体及边缘区域的匹配精度问题等展开研究,提出相应的改进方案,基于获取的高精度视差图,完成无人驾驶数据集及真实双目视觉系统下的交通场景三维重建。本文的主要工作如下:
  1.针对立体匹配任务中复杂的环境信息以及光照、阴影等干扰下产生的视差不连续问题,提出一种基于多尺度特征融合的立体匹配算法(Multi-scale Feature Fusion Net,MFFNet)。通过改进的多尺度特征提取结构增大网络感受野,捕捉丰富的上下文信息帮助算法实现对场景的理解和不同尺度物体的匹配,解决大尺度物体的视差连续性问题。同时基于不同层次特征的统计性差异,引入注意力机制进行特征融合,过滤浅层特征中的背景及噪声信息,弱化深层特征中的无关信息通道,改善算法对图像噪声干扰的适应性。与基准算法相比,本文算法的参数量减少了44.0%,运行速度提高了28.8%,整体的3像素误差从2.32%下降至2.27%。
  2.针对细小物体及边缘等区域的视差精度问题,提出一种基于卷积神经网络的视差优化方案,可以嵌入到立体匹配算法中进行端到端的训练。在视差优化过程中,利用浅层特征和初始预测视差图,提出一种新的局部稠密代价卷的构造方式,减少计算量的同时,实现代价卷在真实视差值邻域的稠密聚合。同时设计了一种新的概率分布损失函数,监督预测的视差概率在真实视差值附近呈现单峰分布,改善算法在重复纹理区域的匹配效果。与参考算法相比,嵌入了本文视差优化方案的立体匹配算法整体的3像素误差仅为2.20%,比基准算法提高5%,前景区域误匹配率下降12.7%,在细小物体及边缘区域实现了更好的精度表现。
  3.基于改进的立体匹配算法和视差优化方案,首先通过KITTI无人驾驶数据集完成三维重建过程,对比本文算法与PSMNet及SGBM算法的三维重建效果。然后基于本文搭建的双目视觉系统,完成图像采集、相机标定、图像校正、立体匹配及点云重建的算法流程,验证了本文改进算法在真实采集的图像数据下的三维重建效果。
  论文针对基于双目视觉的交通场景三维重建的关键技术进行深入研究,从提高用于三维重建的视差图精度出发,提出一种改进的立体匹配算法,以及一种可端到端训练的视差优化方案,通过无人驾驶数据集和双目视觉系统采集的真实图像数据进行完整的三维重建过程,验证三维重建效果,实验结果表明本文算法有效改善了复杂交通场景下点云不连续问题以及细小物体的三维重建效果。
作者: 纪郭
专业: 动力机械及工程
导师: 刘建国
授予学位: 硕士
授予学位单位: 武汉理工大学
学位年度: 2021
检索历史
应用推荐