专利名称: |
一种基于深度学习的焊缝超声相控阵检测数据智能分析方法 |
摘要: |
本发明公开了一种基于深度学习的焊缝超声相控阵检测数据智能分析方法,包括:S1:进行数据采样,使用相控阵分别对不同厚度的钢板焊缝进行检测,获取一系列S扫图片;S2:进行预处理,S扫图片按照1:1的比例分为训练集、验证集,并将图片大小重置为800*800;S3:进行数据标注,用标注软件labelImg对训练集和验证集的S扫图片进行缺陷的标注;S4:训练Faster RCNN网络,用S3标注好的数据集和预训练的VggNet16网络权重模型循环交替训练其中的Fast RCNN和RPN网络;S5:进行结果测试,将待检测的图片输入已经训练好的网络中,输出检测结果。本发明不仅提高了超声相控阵检测焊缝的S扫二维平面缺陷的识别率,并且具有准确率高、漏检率低的优点。 |
专利类型: |
发明专利 |
申请人: |
武汉武船计量试验有限公司 |
发明人: |
李威;王旭之;朱甜甜;王礼宾;宋波 |
专利状态: |
有效 |
申请日期: |
1900-01-20T00:00:00+0805 |
发布日期: |
1900-01-20T00:00:00+0805 |
申请号: |
CN201911374767.X |
公开号: |
CN111060601A |
代理机构: |
北京中济纬天专利代理有限公司 |
代理人: |
邓佳 |
分类号: |
G01N29/06;G01N29/44;G;G01;G01N;G01N29;G01N29/06;G01N29/44 |
申请人地址: |
430000 湖北省武汉市武昌区紫阳路2号 |
主权项: |
1.一种基于深度学习的焊缝超声相控阵检测数据智能分析方法,其特征在于,包括如下步骤: S1:进行数据采样,使用相控阵分别对厚度为12,14,18,20,24,30mm的钢板焊缝进行检测,每隔1mm对相控阵焊缝切片进行采样,获取一系列S扫图片; S2:进行预处理,将步骤S1中的S扫图片按照1:1的比例分为训练集、验证集,保持训练集中含有缺陷的图片占50%的比例;并且统一将所有的数据图片大小重置为800*800,格式转换为jpg格式; S3:进行数据标注,用标注软件labelImg对训练集和验证集的S扫图片进行缺陷的标注,标注的内容为S扫图中缺陷的位置和尺寸,生成记录S扫图片信息和其中相关缺陷信息的xml文件; S4:用上述已标记的数据集训练Faster RCNN网络,Faster RCNN由Fast RCNN和RPN网络构成,它们共享特征图,整个训练过程就是循环交替训练Fast RCNN和RPN网络;其中图片特征的提取使用的是16层的卷积神经网络VggNet16; S5:进行结果测试,将待检测的图片输入已经训练好的网络中,输出检测结果。 2.根据权利要求1所述的一种基于深度学习的焊缝超声相控阵检测数据智能分析方法,其样本特征在于:步骤1中所述钢板中除了钢板厚度有多个样本,焊缝类型也包含X型焊缝和V型焊缝,比例为1:1;同时对所述步骤S1中同一焊缝的另外一侧还需进行扫查,获取数据。 3.根据权利要求1所述的一种基于深度学习的焊缝超声相控阵检测数据智能分析方法,其特征在于:所述步骤S4中所述VggNet16网络包含13个卷积层,3个全连接层和5个池化层,可以充分提取S扫图片中的缺陷特征;Fast RCNN还包含ROI Pooling层,通过对ROI区域中候选框坐标的映射和maxpooling操作,得到固定大小的不同候选框的特征图,用于分类识别和修正框位置; RPN是区域生成网络,用来生成候选区域,输入特征图,会在RPN中产生9种可能的候选窗口,分别为三种面积{1282,2562,5122}和三种比例{1:1,1:2,2:1},在特征图中进行滑窗遍历,最后的卷积层生成候选区域ROI。 4.根据权利要求1所述的一种基于深度学习的焊缝超声相控阵检测数据智能分析方法,其特征在于:所述步骤S4中Faster RCNN网络的训练步骤如下: S41:训练VggNet16网络 首先搭建VggNet16网络,将数据集送入网络进行分类训练,以交叉熵损失作为优化函数,如下所示: 其中m为样本数量,n为类别数,yji为真实类别,为预测类别;通过微调学习率,使用自适应梯度下降法以及Dropput方式优化网络,得到VggNet16的初始权重模型W0; S42:训练RPN网络和Fast RCNN 使用迁移学习的方式加载S41中预训练好的网络权重W0,训练RPN网络,生成候选区域,再根据初始权重W0和候选区域来训练Fast RCNN网络,得到更新后的权重W1,根据更新后的权重W1再次训练RPN,生成候选区域,如此进行反复交替的训练; 特征图进入RPN后对样本图像中的每一个像素点赋予9个候选窗口进行前向传播,通过ROI Pooling后得到固定大小的特征图,然后送入分类层对前景样本和背景样本进行分类识别,计算分类损失值Lossclass,送入位置调整层来确定目标精确的位置,计算预测框位置损失Losslocation; 分类层的损失由所属类别u的概率pu决定: Lossclass=-log pu 其区域位置误差用预测参数tu和调整参数v的差别来确定: Losslocation=g(tu-v) 其中g表示Smooth误差: 总损失为两者的加权和,如果分类为背景,则不考虑区域位置误差;最后利用BP反向传播算法使总损失和最小化。 |
所属类别: |
发明专利 |