论文题名: | 面向复杂驾驶场景的多任务检测网络与多源融合测距 |
关键词: | 自动驾驶;神经网络;视觉测距;车辆跟踪;目标检测 |
摘要: | 智能车辆通过部署视觉传感器获取驾驶环境的空间信息,然而在复杂驾驶环境中,视觉传感器极易受到干扰且数据提取技术也未完全成熟,导致目标检测、跟踪及测距出现偏差,造成漏检、误检,检测精度差、稳定性差等问题。本文通过搭建基于视觉感知的多任务检测网络,综合利用多源参考信息,提出多源融合测距算法,旨在提高机器视觉感知面向复杂驾驶环境的感知能力。本文的研究内容如下: (1)搭建基于视觉感知驾驶场景的多任务目标检测网络模型,考虑到车载平台有限的计算资源,本文使用轻量化网络Mobilenetv3替换CSPDarknet53作为BackBone,并完成车道线和车辆检测损失函数的设计,同时采用3D目标检测获取图像包含的空间信息。 (2)提出视频流数据基于时空连续特征关联的融合算法。本文研究基于视频帧图像信息在时间域和空间域内的连续特征关联进行匹配融合:使用卡尔曼滤波预测目标的运动信息,基于IoU、颜色直方图、马氏距离进行融合同时使用匈牙利算法实现目标检测框的匹配跟踪。 (3)提出基于多参考信息融合的车辆测距算法。分析摄像机位姿变化对基于车辆检测框底边缘位置测距模型的测距精度产生的影响,计算道路消失点坐标并推导摄像机俯仰角和偏航角的计算模型,在此基础上修正该测距模型;推导存在俯仰角和偏航角情况下的车道宽度计算公式,并修正弯道下基于车道线的测距模型;推导出基于车牌宽度的测距模型;在基于车辆宽度的测距模型中使用3D检测获取车辆检测框的三维信息;最后根据四种测距模型在不同应用场景下的置信度分配权重。 (4)基于Xavier开发板进行实车实验验证本文提出的多任务目标检测网络模型、时空连续性融合目标跟踪匹配、多参考信息融合测距算法的准确性和鲁棒性。实验表明:本文提出的多任务检测网络平均召回率略微下降,平均精确度不变,参数量上减少约75%,平均检测速度提升了15%;跟踪算法的准确度比SORT跟踪算法高了3.3%,跟踪框精度与SORT跟踪算法一致,车辆跟踪轨迹变换次数下降显著;融合算法的平均计算速度为24帧/秒且测距效果较为稳定。 本文提出的基于多任务检测网络的融合测距算法提高了智能车辆的类人视觉感知能力,充分利用目标的时空连续性和多源参考融合测距,提高了目标检测的速度以及与目标测距的精度与鲁棒性,为智能车辆的安全驾驶提供了保障。 |
作者: | 陈辰 |
专业: | 车辆工程 |
导师: | 刘军 |
授予学位: | 硕士 |
授予学位单位: | 江苏大学 |
学位年度: | 2022 |