论文题名: | 车载雷达和视觉综合检测技术研究 |
关键词: | 车载雷达;视觉综合检测技术;自动驾驶;视觉数据;毫米波雷达数据 |
摘要: | 随着科技的不断发展,自动驾驶已成为目前重要的研究领域,而在自动驾驶中,道路目标检测是一个值得关注的研究方向。目前主流的目标检测研究中大部分是基于视觉方向,虽然基于视觉的目标检测研究已经取得了优秀的检测结果,但是在弱光环境或者远距环境下,基于视觉的检测性能大幅下降,无法满足自动驾驶中全天候、全时段的要求。基于此本文通过对毫米波雷达与视觉数据融合以完成弱光照和远距离环境下的道路目标检测,并且围绕毫米波雷达与视觉数据间的时空映射和融合检测进行了研究,具体研究内容如下: (1)首先研究了使用线性调频连续波的毫米波雷达相关理论,包括雷达测距、测速、测角原理,以此为基础进行理论研究,并通过实验验证了毫米波雷达目标位置信息与运动信息的获取方法,为后续的检测融合实验提供了实验数据和基础理论的保障。 (2)通过采集普通市内道路环境与空旷环境下的毫米波雷达数据与视觉数据制作数据集,并根据光照强弱、目标径向距离划分为三个数据集。 (3)通过雷达坐标系、世界坐标系、相机坐标系、图像坐标系、像素坐标系之间的矩阵转换,推导出毫米波雷达数据与视觉数据之间存在某种空间映射关系,故将空间转换问题转变为回归问题。进而利用反向传播神经网络、基于遗传算法改进的反向传播神经网络、支持向量回归算法分别进行了实验验证,最终完成了两种传感器数据之间的空间映射,并且将最小均方误差损失控制在了0.0001以内。 (4)以YOLOv5网络为基础设计了双输入的改进检测网络,利用双主干网络结构同时对毫米波雷达数据与视觉数据进行输入,并通过实验验证了相对于单传感器检测性能的提高。在其他网络结构的改进上,特征提取阶段添加了卷积注意力模块增加通道注意力和内部特征注意力,并且通过Transformerencoder和转置卷积模块提高了网络对于远距离目标的检测能力。最终通过消融实验验证了这种改进的有效性,相对于原YOLOv5网络对视觉数据的检测,三种类别目标的检测精度均有明显提高:在弱光环境下,机动车提高了0.55,非机动车提高了0.54,行人提高了0.58;在远距环境下:机动车提高了0.52,非机动车提高了0.73,行人提高了0.74。 |
作者: | 袁明康 |
专业: | 通信工程(含移动通信、宽带网络等) |
导师: | 沈晓峰 |
授予学位: | 硕士 |
授予学位单位: | 电子科技大学 |
学位年度: | 2023 |