论文题名: | 智能汽车多视角周边车辆轨迹预测方法研究 |
关键词: | 智能汽车;自动驾驶;环境感知;轨迹预测;深度学习;视觉里程计 |
摘要: | 智能汽车已成为全球汽车产业发展的战略方向,也是我国汽车强国建设的历史机遇,是新一代信息技术、高端装备制造、新材料、新能源等战略性新兴产业的创新集成载体。环境感知是实现汽车智能化的重要基础,也是智能汽车实现高级别自动驾驶的瓶颈所在。轨迹预测技术基于目标检测跟踪、定位与建图等技术,是高级别的感知输出。该技术为智能汽车提供周边各目标的未来轨迹信息,能够更好地优化车辆避撞、驾驶员辅助等系统功能,对于提升汽车行驶驾驶安全性具有重要作用。 智能汽车周边车辆轨迹预测的难点为:第一,对复杂交通场景内周边车辆轨迹进行预测时,现有方法不能准确建立车辆间的交互关系模型;第二,现有轨迹预测方法基于多种传感器的复杂感知系统,该系统的构建需要较高的成本。针对上述问题,本文首先研究了鸟瞰视角下的车辆轨迹预测方法;其次,使用深度学习的方法,建立了智能汽车运动过程的视觉里程计;最后,基于视觉里程计提供的自车运动信息,研究了自车视角下的车辆轨迹预测方法,主要研究工作如下: (1)对美国高速公路数据集NGSIM和德国高速公路数据集highD进行样本集的建立与划分,提供了复杂交通场景中车辆位置和各运动学参数信息;对KITTI数据集进行样本集的建立与划分,提供了单目视觉感知系统下的智能汽车预测车辆位置及身份信息。所构建样本集为建立鸟瞰视角下周边车辆交互关系模型、计算智能汽车视觉里程计以及建立自车视角轨迹预测模型奠定数据基础。 (2)提出了鸟瞰视角下的车辆轨迹预测模型:环境注意力网络(Environment-Attention Network,EA-Net)。针对现有方法中存在的车辆交互信息提取不充分等问题,构建了由图注意网络和改进的卷积社交池组成的并行结构。该结构解决了现有研究中构建的车辆与周边环境间交互模型在结构层面存在局限性等问题,实现了对车辆与周边环境间交互特征信息的高效提取。EA-Net在公开数据集NGSIM和highD上的轨迹预测精度较现有先进模型提升了20%以上,在不同交通环境下具有高泛化能力和预测准确性。 (3)提出一种基于低成本单目视觉感知系统的自车运动估计与预测方法。针对单目图像数据中缺乏周边目标的距离信息、无法直接构建运动过程的视觉里程计等问题,首先建立了由深度估计网络和位姿估计网络构成的自车运动估计模型,实现基于深度图的图像间车辆位姿变换的计算。其次,构建了基于自车历史位姿序列预测模型,实现了对未来车辆位姿变换的预测,为车辆轨迹预测方法提供了自车完整视觉里程计。 (4)提出一种基于自车运动信息的自车视角车辆轨迹预测方法。针对现有自车视角轨迹预测方法不能准确对自车运动与预测目标运动进行解耦的问题,基于视觉里程计,在静止视角下对目标位置进行归一化处理;构建轨迹预测网络对目标图像和轨迹编码,并预测未来轨迹预测。所提方法克服了现有研究因忽视自车运动状态对周边目标轨迹预测精度带来的不利影响,实现了智能汽车周边多目标运动轨迹的有效预测。公开数据集的测试结果表明,所提方法在1.5s预测轨迹中心像素点的平均均方误差为321,较已有基线方法降低了52%,在对未来较长时步轨迹预测方面具有优异表现。 |
作者: | 汪梓豪 |
专业: | 交通运输工程 |
导师: | 蔡英凤 |
授予学位: | 硕士 |
授予学位单位: | 江苏大学 |
学位年度: | 2022 |