当前位置: 首页> 学位论文 >详情
原文传递 基于V2X技术的隧道内车辆精确定位研究
论文题名: 基于V2X技术的隧道内车辆精确定位研究
关键词: 自动驾驶;隧道信号盲区;车辆检测;摄像头;激光雷达;信息融合
摘要: 自动驾驶与智慧交通协同发展是未来发展的主要方向,安全是V2X技术考虑的重点,感知技术是保障车辆安全稳定行驶的关键技术。然而热点区域隧道存在信号盲区问题导致GPS失真、失效,从而带来极大的安全隐患,所以研究新型精确定位技术迫在眉睫。目前单一传感器存在各自的优缺点,如摄像机2D目标检测较3D目标检测精度高,但是难获取目标三维数据;而激光雷达虽能精准测距,但其目标检测精度较低。多元传感器融合技术是融合多元感知数据,以实现快速、稳定且准确的环境感知为目的。在此背景基础下,本文以国家重点实验项目(19AKC15)为依托。研究一种摄像头和激光雷达的融合策略,提出了一种实时、高精度,且具有强鲁棒性特点的车辆检测方法。主文主要研究内容包括:
  ①研究了基于单目摄像机测距的方案。在分析了经典网络结构YOLOv3-Tiny的基础上,对YOLOv3-Tiny进行改进,同时在多源数据集上将两模型做对比,实验结果表明本文提出的方法检测精度更好。基于改进YOLOv3-Tiny车辆检测,与摄像机成像原理的基础上,建立了基于几何关系的摄像机测距模型,实现对像素坐标系下任意一点在世界坐标系下位置的测量。
  ②研究了基于Complex-YOLO的实时3D目标检测算法。在探讨分析激光点云特性以及其数据结构之后,选择了兼顾检测速度与检测精度的Complex-YOLO算法处理点云。在其基础之上,介绍了基于ROS系统下的Autoware外参标定方法[1]和TOF激光雷达测距方法。从而搭建Complex-YOLO测距模型,以实现点云的车辆检测与测距。
  ③提出了一种新型融合方针,使系统更加高效兼容,更具鲁棒性。首先在软件层,设计了基于ROS系统的融合框架。其次通过联合标定建立摄像机与激光雷达的联系,从而实现传感器在空间上的配准。然后采用深度上采样,将稀疏深度图转变为密集深度图像。对RGB图和深度图,基于本文的改进YOLOv3-Tiny模型进行车联检测,以得到对应边界框。最后采用决策级融合方案对边界框进行融合,并修正其置信度。
  本文测试场地,位于重庆市九龙坡区招商局检测车辆技术研究院有限公司的测试隧道中进行实验验证。实验结果表明,本文提出的融合检测方法,具有很好的实效性和鲁棒性,能替代GPS进行高精度定位。针对多元数据融合结果,其获取到对隧道内目标的实时检测与定位数据后,利用边缘计算单元(Mobile Edge Computing,MEC)对其实时处理并转发给路侧单元(Road Side Unit,RSU),而RSU在5G技术的背景下与车载单元(On board Unit,OBU)实时通信,以完成多元传感器间的多元信息交互。OBU再将感知数据发送给车内处理单元进行数据处理,其结果最终流向车内控制器车辆从而做出对应响应。从而解决了隧道内信号盲区导致GPS失真、失效,致使隧道内自动驾驶车辆人员存在的安全问题。
作者: 钟用
专业: 工程(光学工程)
导师: 赵明富;祖晖
授予学位: 硕士
授予学位单位: 重庆理工大学
学位年度: 2022
检索历史
应用推荐