当前位置: 首页> 学位论文 >详情
原文传递 基于改进的YOLACT算法对高速场景中可行驶区域的识别与测距
论文题名: 基于改进的YOLACT算法对高速场景中可行驶区域的识别与测距
关键词: 智能辅助驾驶系统;可行驶区域;目标识别;YOLACT图像分割算法;测距技术;行为决策
摘要: 可行驶区域是环境感知领域的重要研究对象,也是智能辅助驾驶系统中的重点研究内容。雷达目标检测与测距技术成本高、信息量少且占用额外频率资源。视觉成像设备所需成本低、所获图像信息含量丰富。因此近年来,基于神经网络的视觉图像目标识别与分割技术发展迅速,其检测结果准确度高且对场景和目标的识别具有自适应性。但神经网络计算量大,检测速度较慢,尤其在高速场景中,快速变化的场景需要算法速度快、精度高,才能满足车辆的实时性要求。但是现有神经网络算法难以满足高速场景中快速检测目标的需求。为了提高检测速度和识别精度,本文设计出一种改进的YOLACT算法对高速道路上车辆的可行驶区域进行识别,并通过一元多项式回归法对可行驶区域测距并给出车辆行为决策建议,以提高智能驾驶辅助系统的安全性。
  本文的主要研究内容共包括图像预处理、可行驶区域的识别、目标测距与行为决策三部分。第一部分为图像预处理:为提高在雾天和逆光场景下拍摄的图像质量,本文设计出改进的暗通道去雾算法,并引入MSRCR图像增强算法去强光,这两种算法提高了图像的清晰度、降低雾天与逆光条件下可行驶区域检测的难度。第二部分为可行驶区域的检测:本文需要检测的目标包括可直接行驶区域与可变更车道区域,针对它们种类少、形状大的特点,本文首先设计出大感受野的特征提取网络ResNet38,该网络中残差块数量少且可提取到更多目标的语义信息,因此计算量更少。其次,本文还重新设计了一种TFPN检测结构,该结构在ResNet38网络后通过1*1的卷积核直接生成有利于检测大目标信息的P7,随后P7经过上采样与C6进行特征融合生成P6,同理生成P5。TFPN取消了原FPN结构中P3和P4,它们主要检测目标的细节信息,且计算量大。因此,本文设计的ResNet38_TFPN结构可更快地提取出高速中可行驶区域的特征信息。最后,由于行车记录仪采集的可行驶区域图像具有横向宽、纵向窄的梯形特征,为此,本文重新设计了神经网络的锚点框长宽比系数,该设计可实现对可行驶区域的迅速准确定位,提高算法的速度和精度。第三部分为目标测距与行为决策:本文根据可行驶区域的像素值与实际距离的几何关系,建立了多项式回归模型。该模型是以可行驶区域像素值为自变量的测距函数,其参数通过多元线性拟合的方式确定。然后根据测距结果对前行车辆提出决策建议。实验证明,改进后的YOLACT对可行驶区域进行检测的FPS为48.57,boxmAP的值为62.84,maskmAP的值为62.11,并且该算法在96.9m内的最大测距误差为5.3m。因此改进的YOLACT可以快速准确地检测出可行驶区域并为车辆提供行为决策建议。
作者: 张保俊
专业: 无线电物理
导师: 王桂丽
授予学位: 硕士
授予学位单位: 安徽师范大学
学位年度: 2021
检索历史
应用推荐