论文题名: | 基于多传感器融合的智能车道路目标检测 |
关键词: | 自动驾驶;多传感器融合;联合标定;深度学习;目标检测 |
摘要: | 近年来,自动驾驶技术正逐渐成为国内外汽车行业的研究重点。自动驾驶技术主要由环境感知,路径规划和决策控制组成,所涉及的行业知识包括车辆结构,自动控制原理,传感器原理和计算机技术。环境感知是自动驾驶系统的关键组成部分,是自动驾驶车辆做出规划决策的先决条件。然而真实场景下复杂道路交通环境给感知任务带来了极大挑战,基于单一传感器构建的感知算法其感知精度较低且鲁棒性较差,而多传感器融合算法可集合各传感器优势,其算法精度相对较高同时为感知系统提供一定的冗余性。但现有的多传感器融合算法检测类别单一且实时性较差难以工程化部署。 本文依托智能驾驶汽车平台,设计了多传感器目标层融合感知算法,该算法在检测精度及实时性上具有较好的表现效果,为无人驾驶车辆提供了可靠的周围障碍物目标信息,主要研究内容如下: (1)视觉目标检测算法设计。本文提出了一种改进的视觉目标检测算法,为了提升模型的检测精度,本文在YOLOV3的基础上使用DIoU作为目标框回归损失函数,提升了算法的目标框定位精准度,使用DIoU-NMS后处理算法,提升了算法对遮挡目标的检测效果;此外为提升模型的运行速度,本文使用轻量化网络作为模型的主干特征提取网络,大大减小了模型的计算量。实验表明,相比YOLOV3算法本文算法在检测精度上提升了4.12%,在汽车类别上检测精度可达94.20%,算法运行时间仅是YOLOV3的54.13%,达到0.0223s。 (2)激光雷达目标检测算法设计。本文首先使用点云滤波去除原始点云中的噪声点,使用栅格地图与平面模型结合的方式去除地面点云数据的干扰,之后使用分区域聚类的方式对非地面点进行点云聚类操作以进一步减少点云的数据量并尽可能保留障碍物点云数据,最后使用PointNet网络区分目标背景点并提取目标点云特征,对前景目标点云使用单一区域建议网络获得目标类别信息和目标框信息。本文算法结合了聚类点云算法具有目标召回率高、处理速度快的特点和点云神经网络分类准确的特点,在检测精度高的同时保证了算法的实时性。经实验表明该算法相比Complex-Yolo和Voxel-Net算法检测精度分别提升了22.92%和3.43%,算法运行时间为0.091s,满足自动驾驶车辆的实时性要求。 (3)多传感器联合标定。本文首先使用相机内参标定方法获得相机内参矩阵,之后通过提取标定板平面和标定板平面法向量并解算多组配对的点云图像法向量获得激光雷达与相机的外参矩阵,通过提取角反射器并解算多组配对的毫米波雷达和激光雷达的角反射器位置信息获得毫米波雷达与激光雷达的外参矩阵,以激光雷达坐标系为中心坐标系使用手眼标定获得三者传感器之间的坐标转换关系,完成各传感器之间的空间同步。以激光雷达数据时间戳为融合基准时间戳,实现传感器之间的时间同步。将毫米波雷达数据和激光雷达数据投影至图像并可视化,获得了较好的标定效果。 (4)融合检测算法设计。在融合检测部分首先对毫米波雷达原始数据进行滤波处理,根据行驶状况及道路条件进行目标筛选。在目标匹配部分,本文算法将激光雷达目标点云投影至图像获得点云的2D检测框并与视觉目标进行交并比,使用交并比和目标间距离信息作为KM算法的两个度量指标可获得点云与图像融合目标输出。之后将点云和图像融合的目标与毫米波雷达数据再次进行匹配融合获得三个传感器目标融合输出。最后对融合目标进行置信度修正以提高检测算法精度并更新各目标的状态信息。实车实验表明本文算法的检测精度和实时性都有良好表现。 |
作者: | 刘明亮 |
专业: | 车辆工程 |
导师: | 王海 |
授予学位: | 硕士 |
授予学位单位: | 江苏大学 |
学位年度: | 2021 |