当前位置: 首页> 学位论文 >详情
原文传递 不良天气条件下车辆检测方法研究
论文题名: 不良天气条件下车辆检测方法研究
关键词: 自动驾驶;不良天气;车辆检测;机器学习;信息融合
摘要: 车辆检测是自动驾驶汽车环境感知的重要研究领域。随着计算机技术的发展和传感器硬件的逐步成熟,在良好的天气条件下自动驾驶汽车的车辆检测技术已具有较高的水平,基本满足车辆决策和控制对于实时性和准确性的需求。但是对于不良天气环境(夜间、雨天、雪天、雾天等)下的车辆检测,仍然存在诸多的挑战。不良天气环境中的车辆感知信息包含大量的噪声,很容易引起车辆目标的信息缺失和分辨率降低,从而严重降低车辆检测的准确性和鲁棒性。不良天气下车辆感知信息的不完备性和不确定性将直接导致自动驾驶决策规划和运动控制的失效,进而引发交通事故。因此如何提高不良天气下的车辆检测性能是自动驾驶发展道路上亟需解决的,不可避免的难题,也是自动驾驶领域的热点问题。
  近些年,国内外的学者针对不良天气的车辆检测问题展开了广泛而深入的研究,经过分析发现还存在以下几个方面需要继续改进。首先以可见光相机和激光雷达为代表的车辆检测方法对不良天气的适应性存在固有不足。虽然研究人员尝试采用信息去噪和模型改进等方法来提高车辆的检测性能,但是这些方法大多适应于单一的场景很难兼容各种不良天气环境。其次,毫米波雷达检测目标冗杂,常见的基于规则和先验知识的有效目标识别方法未能充分考虑天气环境和车辆运动状态等多种因素耦合对雷达检测信息和检测误差的影响,从而降低了复杂场景中雷达有效目标的识别精度。最后,为了提高红外图像车辆目标的检测精度,研究人员大多在图像预处理阶段采用图像处理的方法预先提取车辆的ROI(RegionofInterest,感兴趣区域),但是基于图像的车辆ROI提取方法很难消除环境热源的干扰,ROI的提取精度有待提高。另外,很多基于图像的ROI提取方法计算过程复杂容易降低车辆检测的实时性。
  针对上述问题,本文试图探索一种不良天气条件(夜间、降雨量≤25mm/d、降雪量≤5mm/d、450m≤能见度≤10km,检测距离≤60m)下的车辆检测方法,以毫米波雷达和红外相机为基础传感器,以先进的人工智能方法为技术驱动,旨在提高不良天气条件下车辆检测的准确性、实时性和场景适应性,同时兼顾感知信息的完备性。本文研究内容主要包括以下几个方面:
  第一,针对不良天气环境毫米波雷达有效目标识别精度低的问题,本文提出了一种考虑多因素耦合与数据驱动的雷达有效目标识别方法。首先分析了天气环境和车辆运动状态对雷达检测信息和检测误差的影响,辨识获得了主要的影响因素并进行编码,构造了一个14维多因素耦合的特征向量。然后选用不同的机器学习模型对样本数据进行有监督地训练,生成基础的有效目标识别模型。最后基于相关性分析、PCA降维、特征优化和网格搜索等方法对训练后的Xgboost模型和LightGBM模型进行优化。试验测试表明,本文模型的雷达有效目标识别精度为97.3%,漏检率为2.7%,相比于传统的方法目标识别精度提高了3.5%,漏检率下降了3.9%,有效地提高了不良天气条件下雷达有效目标识别的性能。
  第二,针对不良天气车辆检测准确率低、场景适应性差的问题。本文基于车辆的红外特征和先进的人工智能方法探索了三种基于红外图像的车辆检测方法。一,针对单一车辆检测特征场景适应性差的问题,本文提出了一种基于边缘特征与局部纹理融合的车辆检测方法,分别从图像中提取了代表边缘信息的HOG特征和代表局部纹理LBP特征,然后基于PCA降维生成了HOG-LBP融合特征,最后使用融合特征训练SVM车辆分类器实现车辆目标的检测。测试结果表明该方法相比于单一的车辆检测特征可以提高5.6%—8.9%的车辆检测精度。二,针对原始的Haar-like特征无法有效地表达车辆在红外图像中的显著特征问题,本文提出了一种基于改进的Haar-like特征与Adaboost的车辆检测模型。该模型基于车辆在红外图像中的特征分布设计了4种新的Haar-like模板,并与原始的Haar-like模板共同从训练样本中提取特征,最后训练Adaboost分类器从红外图像中检测车辆目标,测试结果表明改进后的Haar-like特征可以提高3.2%的车辆检测精度。三,针对深度学习模型训练数据量大,训练过程收敛慢的问题,本文提出了一种基于迁移学习和YOLOV4的红外图像车辆检测方法。测试结果表明基于迁移学习的YOLOV4模型可以提高1.7%的车辆检测精度,缩减20%的模型训练时间。最后采用实车试验对三种车辆检测模型进行测试和对比分析,试验结果表明基于YOLOV4的车辆检测模型具有92.5%的最高车辆检测精度和40Fps的最快车辆检测速度;而基于HOG-LBP+SVM的车辆检测模型对小目标车辆具有更好的检测能力;改进的Haar-like+Adaboost车辆检测模型的检测精度与HOG-LBP+SVM模型相近,但是车辆检测的实时性具有显著的优势。
  第三,为了丰富车辆目标的感知信息,进一步提高不良天气条件下车辆检测的精度和速度,本文提出了一种基于ROI信息引导与多尺度信息融合的车辆检测方法。首先,针对基于图像的ROI提取方法环境适应性差,计算效率低的问题,本文提出了一种基于雷达信息引导和像素回归的车辆ROI预测模型。试验结果表明本文的ROI提取方法在确保ROI覆盖率的前提下,具有更好的实时性,单帧图像的计算时间仅为4ms,相比于基于图像的ROI提取方法可以节约60%—70%的计算时间。其次,基于车辆的ROI信息对红外图像进行重构和增强,不仅有效地缩减了车辆目标的搜索区域,而且显著地改善了车辆目标在红外图像中的可分性。再次,针对基于二维空间信息的目标融合方法容易受到不良天气干扰的问题,本文提出了一种考虑深度信息与融合权重的多尺度信息融合模型。首先基于边界回归的深度估计模型将红外图像二维空间的融合信息成功拓展到三维空间,然后利用遗传算法对各尺度融合信息的权重进行优化,最后采用卡尔曼滤波对车辆目标进行预测和跟踪,有效地提高了复杂场景中车辆目标匹配的精度和鲁棒性。
  最后,通过实车试验对不良天气条件下的车辆检测方法进行测试和验证。测试的内容包括场景适应性、实时性、有效性以及车辆目标融合的准确性。在场景适应性测试中,各类车辆检测模型在不同天气中的车辆检测精度都超过90%,其中夜间的检测精度最高为95.0%,雨天的检测精度略低为91.5%。另外在所有的场景测试中基于YOLOV4的车辆检测模型具有最好的综合性能。在实时性测试中,雷达与红外图像融合后可以提高8Fps—9Fps的车辆检测速度,其中基于改进Haar-like与Adaboost的车辆检测模型具有最好的车辆检测实时性42Fps。在模型的有效性测试中,对比了信息融合前后车辆检测性能的变化,试验结果表明融合后的车辆检测方法可以提高2.4%—3.7%的车辆检测精度,降低1.6%—3.0%的误检率。最后,对车辆目标的融合精度进行了测试,测试结果表明本文的目标融合方法相比基于二维空间信息的融合方法可以提高3.2%的匹配精度,有效地改善了不良天气条件下目标混淆的问题。
作者: 王战古
专业: 车辆工程
导师: 詹军
授予学位: 博士
授予学位单位: 吉林大学
学位年度: 2022
检索历史
应用推荐