当前位置: 首页> 学位论文 >详情
原文传递 基于Deeplabv3+算法的交通场景语义分割模型研究及应用
论文题名: 基于Deeplabv3+算法的交通场景语义分割模型研究及应用
关键词: 交通场景;图像语义分割;卷积神经网络;深度可分离卷积;Deeplabv3+算法;焦点损失函数
摘要: 图像语义分割是深度学习领域中的重要研究内容,在实际中应用广泛,其中针对交通场景的语义分割是自动驾驶的关键技术之一,因而对交通图像语义分割技术的研究具有重要的现实意义。
  本文针对现有的基于深度学习的语义分割模型参数量大、可移植性差、分割效果差等问题,深入研究了卷积神经网络和图像语义分割模型。首先分析了卷积神经网络的组成结构和经典的语义分割模型。然后研究了模型复杂度、迁移学习和注意力机制的理论。最后以DeepLabv3+语义分割网络为本文初始模型并对此进行改进。具体的改进如下。首先,本文采用更轻量级网络MobileNetV2替换原始DeepLabv3+模型的主干特征提取网络Xception,以减少语义分割模型的参数量和计算量;其次,在主干网络后引入CBAM注意力机制模块,以提高网络捕获信息的能力和网络模型的分割精度;并将ASPP模块的并行结构更改为串行结构,扩大了感受野范围,有效的利用了图像的全局信息。再次,将普通卷积更换为深度可分离卷积,并对DenseASPP模块的空洞卷积也进行替换,减少了模型的参数量和计算量,缩短了模型训练时间。最后,借助Focalloss的思想,优化交叉熵损失函数,权衡不同种类的样本数量差异性,提高对目标进行识别的准确性。
  将改进DeepLabv3+模型在Cityscapes数据集上进行训练测试,并从PA、MIoU以及mRecall等评价指标对分割结果进行分析。改进的DeepLabv3+模型PA、MIoU及mRecall的值分别为94.8%、86.3%及88.9%。原始的DeepLabv3+模型PA、MIoU及mRecall的值分别为91.5%、84.2%及87.4%。表明了本文方法在实验中的有效性。最后,将本文模型与其他语义分割模型进行对比实验。SegNet模型PA、MIoU及mRecall值分别为91.1%、84.3%及85.9%;U-Net模型PA、MIoU及mRecall值分别为92.2%、84.7%及86.8%。实验结果表明,本文提出的模型在交通场景图像语义分割任务中具有较好的分割性能。
作者: 苏欣欣
专业: 交通运输工程
导师: 郭元术
授予学位: 硕士
授予学位单位: 长安大学
学位年度: 2022
检索历史
应用推荐