基于注意力机制的安全帽检测卷积神经网络建立,软件工程论文.docx
《基于注意力机制的安全帽检测卷积神经网络建立,软件工程论文.docx》由会员分享,可在线阅读,更多相关《基于注意力机制的安全帽检测卷积神经网络建立,软件工程论文.docx(22页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、 基于注意力机制的安全帽检测卷积神经网络建立,软件工程论文本篇论文目录导航:【】【】【】【】【】 基于注意力机制的安全帽检测卷积神经网络建立 卷积神经网络论文范文:基于注意力机制的安全帽检测卷积神经网络建立 内容摘要:在复杂的施工环境中,基于机器视觉技术的安全帽佩戴检测算法经常出现漏检、误检,其检测能力有限。为提高安全帽佩戴检测的精度,本文建立了一种基于注意力机制的双向特征金字塔的安全帽检测卷积神经网络。为兼顾卷积神经网络中的浅层位置信息和深层语义信息的表示出能力,实现对弱小安全帽目的的检测能力,该网络将跳跃连接和注意力机制CBAM技术引入双向特征融合的特征金字塔网络PANet模块中,构建基于
2、注意力机制的双向特征金字塔模块CPANet.为提高模型的收敛能力,采用了CIoU来代替IoU进行优化锚框回归预测,降低该网络的训练难度。比照实验表示清楚,本文建立的检测网络比YOLOv3、RFBNet、SSD、Faster RCNN的mAP值分别提高了0.82,4.43,23.12,23.96,检测速度到达21frame/s,实现了施工现场安全帽佩戴实时高精度检测。 本文关键词语:目的检测;特征融合; PANet; CBAM; CloU; 作者简介:李天宇1996-,男,硕士研究生,2021年于四川轻化工大学获得学士学位,主要从事计算机视觉、目的检测方向的研究。E-mail:litianyu2
3、07;*陈明举1982-,男,重庆人,博士研究生,副教授,2007年于重庆邮电大学获得硕士学位,主要从事智能信息处理、图像处理和机器学习研究。E-mail:chenmingju; 基金:国家电网公司科技攻关项目No.521997180016;四川省科技厅项目No.2021JY0338,No.2022YJ0477,No.2021GZDZX0043,No.2021JY0386,No.2020YFG0178;人工智能四川省重点实验室项目No.2022RYY01;四川轻化工大学研究生创新基金项目No.y2020020; Abstract:In a complex construction enviro
4、nment,the helmet wearing recognition algorithm based on machine vision technology often fails and misdetects,and its recognition ability is limited.In order to improve the accuracy of helmet wearing recognition,this paper establishes a helmet recognition convolutional neural network based on the bid
5、irectional feature pyramid of the attention mechanism isproposed.In order to improve the expression ability of shallow position information and deep semantic information in the convolutional neural network,and increase the recognition rate of vague and small helmets,the network introduces the jump c
6、onnection and the attention mechanism CBAM technology into the bidirectional feature fusion feature pyramid network PANet module,and bidirectional feature pyramid module based on the attention mechanism is constructed.In order to improve the convergence ability of the model,CIoU is used instead of I
7、oU to optimize the anchor frame regression prediction,which reduces the complexity of the network training.The results of comparative experiment show that the mAP value of our proposed recognition network is 0.82,4.43,23.12 and 23.96 higher than that of YOLOv3,RFBNet,SSD,Faster RCNN,respectively,and
8、 its detection speed reaches 21 frame/s,thus satisfy with height real-time accuracy of helmet recognition in the construction environment. Keyword:target detection; feature fusion; PANet; CBAM; CIoU; 1 引言 在施工环境中,施工人员佩戴安全帽能够有效避免或减小安全事故的伤害。通过人工巡检监控视频实现安全帽佩戴检测费时费力,且容易造成误检和漏检。利用机器视觉技术对施工现场工作人员能否佩戴安全帽进行检
9、测,可有效地代替人工巡检,提高辨别的精度,避免安全事故的发生。 传统的安全帽检测主要通过对监测视频进行目的检测,提取目的的几何、颜色等特征进行比照辨别。刘晓慧等人1利用肤色检测实现人头区域的定位,再采用SVM分类器对安全帽的Hu矩特征进行辨别;周艳青等人2将人头区域的统计特征、局部二进制形式特征和主成分特征训练分类器,建立了多特征的安全帽检测算法;贾峻苏等人3结合局部二值形式直方图、梯度直方图和颜色特征,利用SVM对安全帽进行检测。基于目的图像特征提取的传统检测方式方法,泛化能力较差4,而实际施工环境复杂多样,通常存在雨雾、遮挡等的影响。因而,基于目的图像特征提取的传统检测方式方法检测能力有限
10、。 近年来,基于深度学习的目的检测技术能够利用卷积网络自动学习大样本数据有用的特征,建立的检测网络模型泛化能力较强,有效地实现了特殊环境下的安全帽辨别。基于深度学习的目的检测技术主要为基于区域建议和基于回归策略的目的检测网络。基于区域建议的目的检测网络需要先生成可能含有待检测物体的预选框,然后再利用主干网络提取特征信息进行分类和回归。基于回归策略的单阶段目的检测算法则直接在网络中提取特征预测出物体的类别以及位置5.通常二阶段的检测算法精度高,但检测速度远低于单阶段的检测速度。经典的二阶段网络Faster RCNN6采用RPN预选框生成网络和主干特征提取网络,实现目的的准确辨别,但检测耗时较大。
11、徐守坤等人7在二阶段检测算法Faster RC-NN的基础上利用多层卷积特征优化区域建议网络,建立改良的faster-RCNN算法,固然提高了网络检测的准确率,但是延长了检测时间,其检度时间仍然远大于一阶网络,没有能到达实时检测的要求。基于回归策略的目的检测网络主要是YOLO、SSD、RFBNet等8,9,10,11,12.为提高单阶段网络的检测精度,董永昌等人13在SSD检测算法的基础上,引入了DenseNet作为主干网络提取特征,充分利用了各层的特征信息,提高了网络的检测精度。陈柳等人14在RFBNet检测算法的基础上,引入SE-Ghost模块来轻量化检测模型,并利用FPN提高网络对小目的
12、检测的鲁棒性。唐悦等人15针对单阶段算法YOLOv3的缺点,引入GIoU代替IoU来优化锚框选取,但是GIoU具有在锚框包含时会退化为IoU的缺点。同时检测网络采用了密集连接构造来加强特征的传递,所得到算法的检测效果优于传统YOLOv3.以上改良的单阶段网络固然都提高了检测精度,但是检测速度有所下降。 本文针对施工现场的复杂环境与实时性要求,以YOLOv3网络为基础建立一种基于回归策略的高精度安全帽检测网络。该网络在YOLOv3的检测网络中,构建特征金字塔网络CPANet模块提高弱小安全帽目的的检测精度,同时采用了CIoU来代替IoU进行回归预测,在优化锚框回归的同时能够提高模型的收敛能力。通
13、过比照实验证明,在有遮挡的复杂施工环境下,该网络能实现弱小安全帽目的的准确检测,且检测速度较快,知足实时检测的要求。 2 YOLOv3目的检测网络 YOLOv3是基于回归策略的目的检测算法,网络包括Darknet53特征提取网络和检测网络两部分,华而不实Darknet53主要用来提取图像特征信息,检测网络用来进行多尺度的目的预测。DarkNet53是全卷积网络,共有53个卷积层,采用1 1和3 3的卷积组成带有跳跃连接的残差块来构建残差网络,减少了因网络太深而带来的梯度消失现象,能够提取愈加深层的语义信息。同时,使用步长为2的卷积来代替最大池化进行下采样,降低了池化带来的梯度负面效果。 为了提
14、高网络对目的的检测能力,YOLOv3检测层中使用了类似特征金字塔网络的上采样和特征信息融合的做法。当输入图像归一化到416 416送入网络进行检测时,Darknet53会输出3个检测尺度,分别为13 13,26 26,52 52.根据特征金字塔网络构造,13 13与26 26大小的特征图要依次经2倍上采样操作与26 26和52 52大小的特征图进行信息融合,将深层的语义信息通过快速连接传入到浅层,得到3个带有语义和位置信息融合的特征图。YOLOv3的网络构造如此图1所示。 图1 YOLOv3算法构造示意图 Fig.1 Diagram of YOLOv3algorithm structure Y
15、OLOv3网络能够快速实现目的的检测,并利用FPN引入多尺度的目的预测来提高其检测能力。但其FPN网络只采用3个尺度,只进行了一次自上而下的特征融合,各层信息利用缺乏,对于一些小目的和有遮挡目的,其检测能力有限。 YOLOv3在实现边界框预测时,通过kmeans算法对数据集中的目的框进行维度聚类,得到9组不同大小锚框,将锚框平均分配到3个检测尺度上,每个尺度的每个锚点分配3组锚框。但是这样操作会带来大量的锚框,于是YOLOv3采用了最大交并比IoU来对锚框进行回归。IoU计算的是预测边界框和真实边界框的交集和并集的比值,一般来讲预测边界框和真实边界框重叠度越高,则其IoU值越大,反之越小。并且
16、IOU对尺度变化具有不变性,不受两个物体尺度大小的影响。其计算公式如式1所示: 华而不实,A属于真实框,B属于预测框。 但是IoU无法精到准确地反响真实框和预测框重合位置的关系,存在两个较大的缺点,第一,无法衡量两个框之间的距离,如此图2所示,图2a明显要比图2b中的距离近,但仅从IoU数值上无法判定两框的远近;第二,无法反映真实框与预测框的重叠方式,如此图2c与图2d的重叠方式完全不一样,从IoU的数值上无法判定其重叠方式。当上述情况出现时,会导致网络没有梯度回传,造成模型难以收敛等问题的出现。 图2 真实框与预测框位置表示图 Fig.2 Representation of the posi
17、tion of the prediction frame and the real frame 3 一种高精度的卷积神经网络安全帽检测方式方法 为了实现施工现场的复杂环境中弱小目的与遮挡目的的有效检测,并提高网络的收敛能力,本文在YOLOv3网络的基础上引入CPANet与CIoU,建立一种高精度的安全帽检测网络YOLO_CPANet_CIoU来提高检测精度与模型收敛能力。 3.1 CPANet的特征金字塔网络 在检测网络中,YOLOv3采用一次自上而下单向特征融合的特征金字塔网络图3,利用C3C5的输入层经上采样得到P3P5三个不同尺度的输出特征层。从C5到P5的经过经过了5次卷积,再经过一次
18、3 3的卷积和一次1 1的卷积调整通道数后输出;C3-P3、C4-P4的经过,首先要与上一层特征图的两倍上采样结果进行特征融合,然后再经过和C5到P5同样的运算经过并输出对应的特征图;最后特征金字塔网络会输出3个不同尺度的特征图进行目的预测。一般来讲,低层的特征图包含更多的位置信息,高层的特征图则拥有更好的语义信息,FPN网络就是将这个两者特征结合,加强网络的检测准确率。但是YOLOv3中自上而下的特征金字塔网络,只将深层的语义信息通过便捷通道送入浅层,提高浅层特征的分类准确率,但并没有利用便捷通道将浅层的位置信息传入深层,深层特征的定位准确性有限。 图3 YOLOv3算法特征金字塔网络 Fi
19、g.3 YOLOv3algorithm feature pyramid network 于是,为了实现对佩戴安全帽的工人准确检测,减少网络特征损失,并有效利用高低层的特征信息来提高网络的定位准确率,本文引入了双向特征融合的特征金字塔网络PANet16,在原始单向特征融合的FPN后参加了一条位置信息特征通道,使得浅层的特征能够通过便捷通道在损失较小的情况下将位置信息传送到深层进行特征融合,进一步提高了对弱小目的的定位准确性。PANet构造如此图4所示。 相应的研究表示清楚17,与屡次学习冗余的特征相比,特征重用是一种更好的特征提取方式。于是本文在特征金字塔上的横向传播通道添加3条跳跃连接,直接将
20、主干网络C3、C4、C5层的特征传入到最后的输出部分进行融合,使得最终输出能够得到前几层特征图上的原始信息。这样做也能够在一定程度上加快网络的收敛速度,提高网络构造的表征能力,加强对安全帽这类小目的物体的检测效果。 图4 PANet双向特征金字塔构造 Fig.4 PANet bidirectional feature pyramid structure 为了进一步减少遮挡目的的误检,提高安全帽检测精度,在特征金字塔网络的输出部分引入CBAM18注意力模块建立CPANet特征金字塔网络,如此图5所示。利用CBAM分别从通道和空间的角度来加强特征信息,在一定程度上扩大特征图对全局信息的感悟范围,加
21、强特征的表示出能力。CBAM模块首先通过通道注意力模块,对每个通道的权重进行重新标定,使得表示出小目的和遮挡目的的区域特征通道对于最终卷积特征有更大的奉献,进而在背景中突出小目的和遮挡目的,并且抑制一些对分类作用不大的通道,减少网络计算量;再利用空间注意力机制来突出目的区域,通过统计特征图的空间信息得到空间注意图用于对输入特征进行重新激活,进而引导网络关瞩目标区域并抑制背景干扰。 图5 CPANet特征金字塔构造 Fig.5 CPANet feature pyramid structure 3.2 CIoU边界框损失函数 YOLOv3中使用了IoU对锚框进行回归,但是根据前文分析,IoU无法衡
22、量两个框之间的距离和重叠方式,会导致模型收敛能力较弱。所以,一个好的回归框应该考虑重叠面积、中心点距离、长宽比3个集合因素,文献19针对这些问题首先提出了DIoU,同时考虑了真实框与预测框之间的距离和重叠面积,DIoU Loss的计算公式如下所示。 华而不实:b和bgt分别为预测框和真实框的中心点, 为两中心点之间的欧氏距离计算公式,c为在同时包含预测框和真实框的最小闭包区域的对角线距离。 其距离示意图如此图6所示,d为预测框与真实框中心点距离,c为两框对角点距离。可知DIoU能够同时考虑中心点距离与重合两框的对角点距离,改良了IoU存在的缺点,能够在两框未重合情况下为模型提供优化方向。 图6
23、 距离示意图 Fig.6 Distance diagram 同时,CIoU在DIoU的基础上进一步考虑长宽比因素,在DIoU Loss的计算公式中参加惩罚项,CIoU Loss计算公式如式3所示。 华而不实, 是正权衡参数,v是衡量长宽比一致性的参数。所以,CIoU同时考虑了重叠面积、中心点距离、长宽比三要素,能够直接最小化两个目的框的距离,并且在真实框与预测框不重合时,为预测框提供移动的方向。而且CIoU能替换NMS中的IoU算法,加快模型的收敛速度。 因而,在保持网络的检测性能不下降的前提下,本文利用CIoU来代替IoU进行锚框的回归,实现真实框和预测框无重合时的梯度回传,提高模型收敛能力
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 农业相关
限制150内