论文题名: | 复杂场景下的智能汽车目标检测与跟踪算法研究 |
关键词: | 智能汽车;环境感知;计算机视觉;深度学习;目标跟踪 |
摘要: | 随着汽车保有量的逐年攀升,城市交通拥堵日益严重,道路交通事故频频发生。智能汽车可以根据实时路况辅助甚至完全代替驾驶员完成主要的驾驶操纵,逐步成为解决交通安全问题的理想方案。环境感知是智能汽车综合系统中至关重要的一部分,它相当于车辆的“眼睛”,直接影响决策系统和控制系统的智能化水平,是智能车辆安全行驶的先决条件。相比于其他车载传感器,以摄像头为主的视觉传感器可以获得最为丰富的环境信息,且成本低廉,硬件技术成熟,在自动驾驶领域具备独一无二的优势。 近年来,由于深度学习方法在图像处理和模式识别领域获得巨大的成功,以计算机视觉为代表的新兴技术为智能汽车视觉感知指明了新的发展方向。尽管现有的视觉感知算法已经取得了一些卓有成效的研究成果,但仅能应用于场景良好的简单环境,光线的不足、恶劣的天气条件、障碍物的遮挡以及杂乱的背景等诸多因素,给视觉感知算法的长足发展带来一系列的挑战与考验。面对复杂多变的外部环境,如何实现对视觉信息的快速处理与准确理解,是目前智能汽车视觉感知研究中亟需解决的问题。在实际道路场景中,车辆周围环境内存在的主要目标对象包括车道线、交通标志以及行人和车辆等障碍物。因此,本文致力于对复杂场景下的智能汽车目标检测与跟踪算法进行深入研究,具体研究内容如下: (1)提出了一种面向复杂路况和动态环境的车道线检测算法。通过摄像机标定和去除图像畸变对失真图像进行转换,采用叠加阈值的边缘检测算法来确定车道线的基本轮廓,由感兴趣区域(ROI)提取和逆透视变换来获得车道线的鸟瞰图。考虑到B样条曲线具有仿射不变性、局部修改性和强凸包性等性质,能够灵活地对曲线形状进行表示,基于三阶B样条曲线模型采用随机抽样一致性算法(RANSAC)对车道线进行曲线拟合,并对曲线进行拟合评价和曲率半径计算。测试实验结果显示,所提算法基于道路行车视频的平均准确识别率达到了98.49%,检测每帧的平均处理时间为21.5ms。基于TuSimple数据集的平均准确识别率达到了98.42%,检测每帧的平均处理时间为22.2ms。 (2)提出了一种基于卷积神经网络的交通标志检测与识别算法。基于HSV颜色空间对交通标志进行分割,对二值化图像进行形态学处理来实现交通标志的有效提取。考虑到经典LeNet-5卷积神经网络模型仅适用于单一目标的分类识别,对其进行较大改进,包括采用Gabor核作为初始卷积核,在池化层后加入BN数据规范化处理,选择Adam法作为优化器算法以及在全连接层加入Dropout等。实验结果表明,改进的LeNet-5网络模型具有良好的泛化能力,可以对不同类型的交通标志进行准确高效地分类识别。所提算法基于GTSRB数据集的准确识别率达到了99.75%,检测每帧的平均处理时间为5.4ms。 (3)提出了一种基于改进YOLOv3模型的行人检测算法。考虑到行人是典型的非刚性目标,行人之间姿态各异,采用YOLOv3网络模型对行人进行检测时容易出现对目标定位不准确、小尺度目标易被漏检以及在目标密集场景中检测精度较低等问题,对其进行合理改进。在改进的网络模型中,对栅格单元的划分尺寸进行调整,采用改进的k-means聚类算法,基于扩大感受野对多尺度边界框预测,以及采用Soft-NMS算法。实验结果显示,所提算法基于INRIA行人数据集的mAP值达到了90.42%,相比于改进前的检测精度提高了6.88%。检测每帧的平均处理时间为9.6ms,相比于改进前的检测速度缩短了3.9ms。基于PASCALVOC2012数据集的mAP值达到了91.14%,相比于改进前的检测精度提高了7.14%。 (4)提出了一种基于改进SSD模型的车辆检测算法。考虑到车辆是典型的刚性目标,车辆之间相似度较高,采用SSD网络模型对车辆进行检测时容易出现对小尺度目标特征提取能力不足、受遮挡目标易被漏检以及在复杂环境中检测性能较差等问题,对其进行有针对性的改进。在改进的网络模型中,结合Inception模块和特征融合方法对网络基本结构重新进行设计,在网络训练中采用加权Mask,以及在损失函数中添加排斥损失。实验结果显示,所提算法基于KITTI数据集的mAP值达到了92.18%,相比于改进前的检测精度提高了4.64%。检测每帧的平均处理时间为15ms,相比于改进前的检测速度缩短了13ms。基于自制车辆数据集的平均mAP值达到了91.76%,在同种天气状况下的检测精度均高于网络模型改进前。 (5)提出了一种基于双模板孪生网络模型的目标跟踪算法。针对现有孪生网络类算法在目标跟踪中存在的对深层特征提取能力不足、忽略浅层特征的细节信息以及不能保证跟踪精度与跟踪速度的均衡等问题,在Siam-FC网络的基础上构建了基于多特征融合的双模板孪生网络模型。在设计的网络模型中,采用改进的轻量级网络MobileNetV2作为特征提取骨干网络,引入注意力机制来实现对目标关键细节信息的重点关注,通过模板在线更新机制来有效处理目标的受遮挡问题。实验结果显示,所提算法基于OTB2015数据集的平均覆盖率均值达到了82.5%,平均中心位置误差均值为8.5像素,跟踪速度为56FPS。在实际行车视频序列的平均覆盖率达到了84.7%,平均中心位置误差为6.9像素,跟踪速度为58FPS。 由测试评价结果可知,所提目标检测与跟踪算法均具有良好的准确性与实时性,在复杂场景中依然能够保持较强的鲁棒性和抗干扰能力,有效解决了现有研究方法存在的问题与不足。本文研究内容具有重要的理论意义和工程应用价值,有助于推动智能汽车辅助驾驶技术水平进一步发展与提升。 |
作者: | 曹景伟 |
专业: | 车辆工程 |
导师: | 宋传学 |
授予学位: | 博士 |
授予学位单位: | 吉林大学 |
学位年度: | 2022 |