论文题名: | 面向智能驾驶的模仿学习及可解释性的研究 |
关键词: | 智能驾驶;模仿学习;可解释性;仿真平台 |
摘要: | 随着智能汽车产业和人工智能技术的不断发展,越来越多的互联网公司与车企投入到了智能驾驶领域的研究当中。作为一项具有重大意义的技术革新任务,智能驾驶也得到了学术界越来越多的关注。而其中,城镇场景下的智能驾驶任务是最具有挑战性的,因为城镇中的驾驶需要与快速变化的环境进行高频地交互。同时,由于城市建筑遮挡与环境光照等问题,在缺少高精地图的情况下,车辆本身是很难获得当前场景下其他对象的全部信息的,这类非完全信息的环境建模任务十分困难。本文主要就是对非完全信息条件下的智能驾驶方法展开研究,针对传统的模仿学习泛化能力差的问题,提出了离线的多任务场景的课程学习方法,使智能体通过不同任务的学习增强泛化能力,同时增加了语义分割的辅助任务,提高了模型的场景解析能力。进一步,引入了在线的数据聚合的强化模仿学习算法,通过在线场景的交互,来修正模型在线上场景中的轨迹预测,从而提高模型的决策能力。 同时,智能驾驶的安全性也是企业与用户一直密切关注的一个问题,本文也对这个问题展开了研究,将智能驾驶模型的决策过程建模为感知与决策的过程,感知是针对城市驾驶场景中出现的行人、车辆以及交通指示灯等物体进行检测,然后根据这些场景对象对模型动作决策的重要程度进行排序,选出对决策最重要的部分对象,再融合其实际的空间位置信息,最终给出驾驶动作决策的解释预测。这种方式不仅能提高智能驾驶模型的透明性,同时也可以在预测后给出具体影响作出决策的场景物体,提高驾驶者与用户对模型的信任度。 最后使用经典的智能驾驶仿真平台CARLA以及BDD-OIA数据集,对本文提出的算法进行验证。通过实验来证明提出模型的性能以及各个模块的有效性,在CoRL2017以及NoCrash两个测试任务上都达到了最优的性能,与之前的方法相比,在成功率方面均有提升。同时,对决策模型的可解释性进行实验分析,通过动作预测任务以及模型输出可视化,说明引入可解释性有助于模型对动作决策的理解,并且引入可解释性文本能有效地提高模型动作预测的准确率。 |
作者: | 黄澄楷 |
专业: | 计算机科学与技术 |
导师: | 王轩 |
授予学位: | 硕士 |
授予学位单位: | 哈尔滨工业大学 |
学位年度: | 2021 |