欢迎来到淘文阁 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
淘文阁 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    基于注意力机制的安全帽检测卷积神经网络建立,软件工程论文.docx

    • 资源ID:73298132       资源大小:29.17KB        全文页数:22页
    • 资源格式: DOCX        下载积分:115.8金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要115.8金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    基于注意力机制的安全帽检测卷积神经网络建立,软件工程论文.docx

    基于注意力机制的安全帽检测卷积神经网络建立,软件工程论文本篇论文目录导航:【】【】【】【】【】 基于注意力机制的安全帽检测卷积神经网络建立 卷积神经网络论文范文:基于注意力机制的安全帽检测卷积神经网络建立 内容摘要:在复杂的施工环境中,基于机器视觉技术的安全帽佩戴检测算法经常出现漏检、误检,其检测能力有限。为提高安全帽佩戴检测的精度,本文建立了一种基于注意力机制的双向特征金字塔的安全帽检测卷积神经网络。为兼顾卷积神经网络中的浅层位置信息和深层语义信息的表示出能力,实现对弱小安全帽目的的检测能力,该网络将跳跃连接和注意力机制CBAM技术引入双向特征融合的特征金字塔网络PANet模块中,构建基于注意力机制的双向特征金字塔模块CPANet.为提高模型的收敛能力,采用了CIoU来代替IoU进行优化锚框回归预测,降低该网络的训练难度。比照实验表示清楚,本文建立的检测网络比YOLOv3、RFBNet、SSD、Faster RCNN的mAP值分别提高了0.82,4.43,23.12,23.96,检测速度到达21frame/s,实现了施工现场安全帽佩戴实时高精度检测。 本文关键词语:目的检测;特征融合; PANet; CBAM; CloU; 作者简介:李天宇1996-,男,硕士研究生,2021年于四川轻化工大学获得学士学位,主要从事计算机视觉、目的检测方向的研究。E-mail:litianyu207;*陈明举1982-,男,重庆人,博士研究生,副教授,2007年于重庆邮电大学获得硕士学位,主要从事智能信息处理、图像处理和机器学习研究。E-mail:chenmingju; 基金:国家电网公司科技攻关项目No.521997180016;四川省科技厅项目No.2021JY0338,No.2022YJ0477,No.2021GZDZX0043,No.2021JY0386,No.2020YFG0178;人工智能四川省重点实验室项目No.2022RYY01;四川轻化工大学研究生创新基金项目No.y2020020; Abstract:In a complex construction environment,the helmet wearing recognition algorithm based on machine vision technology often fails and misdetects,and its recognition ability is limited.In order to improve the accuracy of helmet wearing recognition,this paper establishes a helmet recognition convolutional neural network based on the bidirectional feature pyramid of the attention mechanism isproposed.In order to improve the expression ability of shallow position information and deep semantic information in the convolutional neural network,and increase the recognition rate of vague and small helmets,the network introduces the jump connection and the attention mechanism CBAM technology into the bidirectional feature fusion feature pyramid network PANet module,and bidirectional feature pyramid module based on the attention mechanism is constructed.In order to improve the convergence ability of the model,CIoU is used instead of IoU to optimize the anchor frame regression prediction,which reduces the complexity of the network training.The results of comparative experiment show that the mAP value of our proposed recognition network is 0.82,4.43,23.12 and 23.96 higher than that of YOLOv3,RFBNet,SSD,Faster RCNN,respectively,and its detection speed reaches 21 frame/s,thus satisfy with height real-time accuracy of helmet recognition in the construction environment. Keyword:target detection; feature fusion; PANet; CBAM; CIoU; 1 引言 在施工环境中,施工人员佩戴安全帽能够有效避免或减小安全事故的伤害。通过人工巡检监控视频实现安全帽佩戴检测费时费力,且容易造成误检和漏检。利用机器视觉技术对施工现场工作人员能否佩戴安全帽进行检测,可有效地代替人工巡检,提高辨别的精度,避免安全事故的发生。 传统的安全帽检测主要通过对监测视频进行目的检测,提取目的的几何、颜色等特征进行比照辨别。刘晓慧等人1利用肤色检测实现人头区域的定位,再采用SVM分类器对安全帽的Hu矩特征进行辨别;周艳青等人2将人头区域的统计特征、局部二进制形式特征和主成分特征训练分类器,建立了多特征的安全帽检测算法;贾峻苏等人3结合局部二值形式直方图、梯度直方图和颜色特征,利用SVM对安全帽进行检测。基于目的图像特征提取的传统检测方式方法,泛化能力较差4,而实际施工环境复杂多样,通常存在雨雾、遮挡等的影响。因而,基于目的图像特征提取的传统检测方式方法检测能力有限。 近年来,基于深度学习的目的检测技术能够利用卷积网络自动学习大样本数据有用的特征,建立的检测网络模型泛化能力较强,有效地实现了特殊环境下的安全帽辨别。基于深度学习的目的检测技术主要为基于区域建议和基于回归策略的目的检测网络。基于区域建议的目的检测网络需要先生成可能含有待检测物体的预选框,然后再利用主干网络提取特征信息进行分类和回归。基于回归策略的单阶段目的检测算法则直接在网络中提取特征预测出物体的类别以及位置5.通常二阶段的检测算法精度高,但检测速度远低于单阶段的检测速度。经典的二阶段网络Faster RCNN6采用RPN预选框生成网络和主干特征提取网络,实现目的的准确辨别,但检测耗时较大。徐守坤等人7在二阶段检测算法Faster RC-NN的基础上利用多层卷积特征优化区域建议网络,建立改良的faster-RCNN算法,固然提高了网络检测的准确率,但是延长了检测时间,其检度时间仍然远大于一阶网络,没有能到达实时检测的要求。基于回归策略的目的检测网络主要是YOLO、SSD、RFBNet等8,9,10,11,12.为提高单阶段网络的检测精度,董永昌等人13在SSD检测算法的基础上,引入了DenseNet作为主干网络提取特征,充分利用了各层的特征信息,提高了网络的检测精度。陈柳等人14在RFBNet检测算法的基础上,引入SE-Ghost模块来轻量化检测模型,并利用FPN提高网络对小目的检测的鲁棒性。唐悦等人15针对单阶段算法YOLOv3的缺点,引入GIoU代替IoU来优化锚框选取,但是GIoU具有在锚框包含时会退化为IoU的缺点。同时检测网络采用了密集连接构造来加强特征的传递,所得到算法的检测效果优于传统YOLOv3.以上改良的单阶段网络固然都提高了检测精度,但是检测速度有所下降。 本文针对施工现场的复杂环境与实时性要求,以YOLOv3网络为基础建立一种基于回归策略的高精度安全帽检测网络。该网络在YOLOv3的检测网络中,构建特征金字塔网络CPANet模块提高弱小安全帽目的的检测精度,同时采用了CIoU来代替IoU进行回归预测,在优化锚框回归的同时能够提高模型的收敛能力。通过比照实验证明,在有遮挡的复杂施工环境下,该网络能实现弱小安全帽目的的准确检测,且检测速度较快,知足实时检测的要求。 2 YOLOv3目的检测网络 YOLOv3是基于回归策略的目的检测算法,网络包括Darknet53特征提取网络和检测网络两部分,华而不实Darknet53主要用来提取图像特征信息,检测网络用来进行多尺度的目的预测。DarkNet53是全卷积网络,共有53个卷积层,采用1 1和3 3的卷积组成带有跳跃连接的残差块来构建残差网络,减少了因网络太深而带来的梯度消失现象,能够提取愈加深层的语义信息。同时,使用步长为2的卷积来代替最大池化进行下采样,降低了池化带来的梯度负面效果。 为了提高网络对目的的检测能力,YOLOv3检测层中使用了类似特征金字塔网络的上采样和特征信息融合的做法。当输入图像归一化到416 416送入网络进行检测时,Darknet53会输出3个检测尺度,分别为13 13,26 26,52 52.根据特征金字塔网络构造,13 13与26 26大小的特征图要依次经2倍上采样操作与26 26和52 52大小的特征图进行信息融合,将深层的语义信息通过快速连接传入到浅层,得到3个带有语义和位置信息融合的特征图。YOLOv3的网络构造如此图1所示。 图1 YOLOv3算法构造示意图 Fig.1 Diagram of YOLOv3algorithm structure YOLOv3网络能够快速实现目的的检测,并利用FPN引入多尺度的目的预测来提高其检测能力。但其FPN网络只采用3个尺度,只进行了一次自上而下的特征融合,各层信息利用缺乏,对于一些小目的和有遮挡目的,其检测能力有限。 YOLOv3在实现边界框预测时,通过kmeans算法对数据集中的目的框进行维度聚类,得到9组不同大小锚框,将锚框平均分配到3个检测尺度上,每个尺度的每个锚点分配3组锚框。但是这样操作会带来大量的锚框,于是YOLOv3采用了最大交并比IoU来对锚框进行回归。IoU计算的是预测边界框和真实边界框的交集和并集的比值,一般来讲预测边界框和真实边界框重叠度越高,则其IoU值越大,反之越小。并且IOU对尺度变化具有不变性,不受两个物体尺度大小的影响。其计算公式如式1所示: 华而不实,A属于真实框,B属于预测框。 但是IoU无法精到准确地反响真实框和预测框重合位置的关系,存在两个较大的缺点,第一,无法衡量两个框之间的距离,如此图2所示,图2a明显要比图2b中的距离近,但仅从IoU数值上无法判定两框的远近;第二,无法反映真实框与预测框的重叠方式,如此图2c与图2d的重叠方式完全不一样,从IoU的数值上无法判定其重叠方式。当上述情况出现时,会导致网络没有梯度回传,造成模型难以收敛等问题的出现。 图2 真实框与预测框位置表示图 Fig.2 Representation of the position of the prediction frame and the real frame 3 一种高精度的卷积神经网络安全帽检测方式方法 为了实现施工现场的复杂环境中弱小目的与遮挡目的的有效检测,并提高网络的收敛能力,本文在YOLOv3网络的基础上引入CPANet与CIoU,建立一种高精度的安全帽检测网络YOLO_CPANet_CIoU来提高检测精度与模型收敛能力。 3.1 CPANet的特征金字塔网络 在检测网络中,YOLOv3采用一次自上而下单向特征融合的特征金字塔网络图3,利用C3C5的输入层经上采样得到P3P5三个不同尺度的输出特征层。从C5到P5的经过经过了5次卷积,再经过一次3 3的卷积和一次1 1的卷积调整通道数后输出;C3-P3、C4-P4的经过,首先要与上一层特征图的两倍上采样结果进行特征融合,然后再经过和C5到P5同样的运算经过并输出对应的特征图;最后特征金字塔网络会输出3个不同尺度的特征图进行目的预测。一般来讲,低层的特征图包含更多的位置信息,高层的特征图则拥有更好的语义信息,FPN网络就是将这个两者特征结合,加强网络的检测准确率。但是YOLOv3中自上而下的特征金字塔网络,只将深层的语义信息通过便捷通道送入浅层,提高浅层特征的分类准确率,但并没有利用便捷通道将浅层的位置信息传入深层,深层特征的定位准确性有限。 图3 YOLOv3算法特征金字塔网络 Fig.3 YOLOv3algorithm feature pyramid network 于是,为了实现对佩戴安全帽的工人准确检测,减少网络特征损失,并有效利用高低层的特征信息来提高网络的定位准确率,本文引入了双向特征融合的特征金字塔网络PANet16,在原始单向特征融合的FPN后参加了一条位置信息特征通道,使得浅层的特征能够通过便捷通道在损失较小的情况下将位置信息传送到深层进行特征融合,进一步提高了对弱小目的的定位准确性。PANet构造如此图4所示。 相应的研究表示清楚17,与屡次学习冗余的特征相比,特征重用是一种更好的特征提取方式。于是本文在特征金字塔上的横向传播通道添加3条跳跃连接,直接将主干网络C3、C4、C5层的特征传入到最后的输出部分进行融合,使得最终输出能够得到前几层特征图上的原始信息。这样做也能够在一定程度上加快网络的收敛速度,提高网络构造的表征能力,加强对安全帽这类小目的物体的检测效果。 图4 PANet双向特征金字塔构造 Fig.4 PANet bidirectional feature pyramid structure 为了进一步减少遮挡目的的误检,提高安全帽检测精度,在特征金字塔网络的输出部分引入CBAM18注意力模块建立CPANet特征金字塔网络,如此图5所示。利用CBAM分别从通道和空间的角度来加强特征信息,在一定程度上扩大特征图对全局信息的感悟范围,加强特征的表示出能力。CBAM模块首先通过通道注意力模块,对每个通道的权重进行重新标定,使得表示出小目的和遮挡目的的区域特征通道对于最终卷积特征有更大的奉献,进而在背景中突出小目的和遮挡目的,并且抑制一些对分类作用不大的通道,减少网络计算量;再利用空间注意力机制来突出目的区域,通过统计特征图的空间信息得到空间注意图用于对输入特征进行重新激活,进而引导网络关瞩目标区域并抑制背景干扰。 图5 CPANet特征金字塔构造 Fig.5 CPANet feature pyramid structure 3.2 CIoU边界框损失函数 YOLOv3中使用了IoU对锚框进行回归,但是根据前文分析,IoU无法衡量两个框之间的距离和重叠方式,会导致模型收敛能力较弱。所以,一个好的回归框应该考虑重叠面积、中心点距离、长宽比3个集合因素,文献19针对这些问题首先提出了DIoU,同时考虑了真实框与预测框之间的距离和重叠面积,DIoU Loss的计算公式如下所示。 华而不实:b和bgt分别为预测框和真实框的中心点, 为两中心点之间的欧氏距离计算公式,c为在同时包含预测框和真实框的最小闭包区域的对角线距离。 其距离示意图如此图6所示,d为预测框与真实框中心点距离,c为两框对角点距离。可知DIoU能够同时考虑中心点距离与重合两框的对角点距离,改良了IoU存在的缺点,能够在两框未重合情况下为模型提供优化方向。 图6 距离示意图 Fig.6 Distance diagram 同时,CIoU在DIoU的基础上进一步考虑长宽比因素,在DIoU Loss的计算公式中参加惩罚项,CIoU Loss计算公式如式3所示。 华而不实, 是正权衡参数,v是衡量长宽比一致性的参数。所以,CIoU同时考虑了重叠面积、中心点距离、长宽比三要素,能够直接最小化两个目的框的距离,并且在真实框与预测框不重合时,为预测框提供移动的方向。而且CIoU能替换NMS中的IoU算法,加快模型的收敛速度。 因而,在保持网络的检测性能不下降的前提下,本文利用CIoU来代替IoU进行锚框的回归,实现真实框和预测框无重合时的梯度回传,提高模型收敛能力。同时,使用CIoU能够降低模型的训练难度,提高对于安全帽检测的准确率。 4 实验结果与分析 4.1 实验环境与训练经过 本次实验在服务器上搭建环境并进行训练,服务器硬件配置为CPUInter Xeon E5-2695、GPUNvidia TITAN Xp、主板超微X10DRG-Q;操作系统为Windows10专业版;软件配置为Anaconda、Pycharm;编程语言为Python,深度学习框架为Keras. 实验数据为网上收集的开源安全帽检测数据集20,共有5 000张施工现场照片。所有的图像用 labelimg 标注出目的区域及类别,共分为两个类别,佩戴安全帽的标记为 helmet ,未佩戴安全帽的标记为 head .并将数据集按811的比例分成训练集、验证集、测试集,分别用于模型的训练、验证以及测试经过。 本文采用安全帽数据集对检测网络进行训练,为了提高本文算法的鲁棒性并防止模型过拟合,在训练集数据输入模型训练前使用图像缩放、长宽扭曲、图像翻转、色域扭曲以及为图像多余部分增加灰条等操作对训练集进行预处理,同时采用了标签平滑策略来防止模型过拟合。 训练时,输入图片尺寸设置为416 416,采用预训练模型,优化器为Adam.网络训练分两次进行,第一阶段训练冻结Darknet53主分,初始学习率Learning rate设置为0.001,batch size一次训练所选取的样本数设置为32,训练50轮,使用学习率下降策略,连续2轮验证集的损失值未改善,学习率将乘以0.5;第二阶段训练释放冻结部分微调模型,初始学习率设置为0.000 1,batch size设置为6,训练60轮,使用学习率下降和提早终止策略,连续2轮验证集的损失值未改善,学习率将乘以0.5,连续10轮验证集损失未改变将提早中止训练。损失下降曲线如此图7所示。 图7 损失下降曲线图。a前50轮;b后60轮。 Fig.7 Loss decline graph.aThe first 50rounds;bThe last 60rounds. 图7a为前50轮冻结主干网络Darknet53的损失下降曲线,图7b为后60轮模型微调训练损失下降曲线,能够看出本文算法的收敛能力较改良前的YOLOv3强,最终本文算法损失下降至13左右便不再继续下降。 4.2 实验结果与分析 为了验证本文算法的有效性,选取了Faster RCNN、SSD、RFBNet、YOLOv3网络在一样的实验环境下利用一样的训练方式和数据集进行训练,得到相应的安全帽检测模型。 为了讲明本文YOLO_CPANet_CIoU网络的性能,选取了4张不同施工环境、遮挡以及人群密集程度的图片,用上述训练好的模型进行测试,并对测试结果进行比照分析。图8为4张不同环境下的测试图片,图9a、b、c、d从左至右分别为Faster RCNN、SSD、RFBNet、YOLOv3以及YOLO_CPANet_CIoU网络下的测试结果。从图9中能够看出,Faster RCNN检测效果较好,能够将大部分的远处小目的安全帽以及有遮挡的安全帽目的检测出来,但是存在一些误检现象,如测试图1、测试图2和测试图4中,Faster RCNN都将一些类似的目的断定为安全帽,这是由于检测网络学习能力缺乏造成的误检测。其次,SSD算法在4幅不同场景的测试图片中的检测性能最差,如测试图1未检测出目的,测试图2和测试图4则未检测出远处小目的,测试图3未检测出一些遮挡目的。这是由于主干网络的特征提取能力不强,且对于小目的和遮挡目的学习能力缺乏造成的。RFBNet的检测效果要优于SSD,固然测试图1、测试图2、测试图4都对远处弱小安全帽目的存在少量漏检,但是能够针对大多数的显著目的和有遮挡的安全帽进行检测,造成漏检的原因是其未利用FPN网络对高底层特征进行融合,导致对小目的的检测不够鲁棒。YOLOv3是检测性能仅次于本文算法,由于其拥有较深的特征提取网络和FPN网络,对弱小安全帽目的检测的性能较好,能对大部分的远距离以及近距离的安全帽进行检测。但是针对测试图1和测试图3中存在一定遮挡的安全帽,YOLOv3并不能准确地检测出来,存在漏检现象。 图8 原始测试图片 Fig.8 Original test pictures 图9 不同网络测试结果比照图 Fig.9 Comparison chart of different network test results 图9 不同网络测试结果比照图 Fig.9 Comparison chart of different network test results 本文的YOLO_CPANet_CIoU是4种网络中检测效果最好的,能够针对测试图1到测试图4中所有的远处弱小安全帽目的和有遮挡安全帽目的进行准确检测,这讲明了本文所提出的安全帽检测方式方法能够很好地融合高低层的特征信息,高效引导网络注意目的区域,进而提高了算法对于弱小以及有遮挡安全帽目的的检测准确率。 为了进一步讲明YOLO_CPANet_CIoU的性能,本文从模型的精到准确率、检测速度和参数量等评价指标来验证改良网络的优越性,利用一样的测试样本对4种网络进行测试。图10给出检测网络的模型精度比照,表1给出检测网络的模型参数比照。图10给出了4种检测网络的各类别的安全帽Helmet和未佩戴安全帽Head平均精到准确率Average Precision,AP以及平均精到准确率均值mean Average Precision,mAP。由图中可知,本文检测网络的mAP值相较于YOLOv3、RFBNet、SSD、Faster RCNN分别增长了0.82,4.43,23.12,23.96,华而不实helmet和Head的AP值相较于改良前的YOLOV3分别提高了0.18和1.46.这讲明YOLO_CPANet_CIoU中的CIoU以及提出的CPANet特征金字塔模块能够提高网络对安全帽的检测精度。 图1 0 模型精度比照图 Fig.10 Model accuracy comparison chart 由表1可知,固然YOLO_CPANet_CIoU的参数量最大有298 M,但是其检测速度仅次于YOLOv3,能够到达21frame/s的速度,完全知足实时性的要求。针对视频图像,能够实时在视频图像中定位与追踪佩戴安全帽和未佩戴安全帽的工作人员,到达施工现场安全帽检测的要求。 表1 模型参数比照表 表1 模型参数比照表 5 结论 为实现施工现场安全帽快速高精度检测,本文在YOLOv3基础上引入CPANet和CIoU构建安全帽检测算法YOLO_CPANet_CIoU.首先该网络为了减少特征损失,有效利用高低层的特征信息,引入了双向特征融合的特征金字塔网络PANet,并在检测网络中添加了跳跃连接和CBAM注意力机制,构成了新的特征金字塔网络CPANet,使得浅层的位置信息与深层的语义信息能够损失较少地在网络中传递,加强网络对小目的以及有遮挡目的的检测能力。同时在保持网络的检测精度不下降的前提下,将CIoU来代替IoU,优化锚框的回归并提高模型的收敛能力。经过实验验证,本文检测算法mAP值为91.96%,检测速度到达21frame/s,能够实现复杂施工环境下对安全帽的精到准确检测,知足实时性的要求,比其他检测算法拥有更高层次的检测精度和检测效果。因而,本文提出的安全帽检测算法YOLO_CPANet_CIoU具有较大的学术参考价值和工程应用价值。 以下为参考文献 1刘晓慧,叶西宁。肤色检测和Hu矩在安全帽辨别中的应用J .华东理工大学学报自然科学版 , 2020. 403:365-370.LIU X H,YE X N. Skin color detection and Hu moments in helmet recognition researchJ.Journal of East China University of Science and Technology Natural Science Edition,2020,403:365-370 in Chinese 2周艳青,薛河儒,姜新华,等。基BP统计特征的低分辨率安全帽辨别J .计算机系统应用, 2021.247;211-215.ZHOU Y Q,XUE H R,JIANG X H.et al.Low-resolution safety helmet image recognition combining local binary pattern with statistical featuresJ Computer Systems Applications ,2021,247:211-215.in Chinese 3贾峻苏,鲍庆洁,唐慧明。基于可形部件模型的安全头盔佩戴检测J .计算机应用研究, 2021,333:953-956 JIAJ S,BAO Q J,TANG H M. Method for detecting safety helmet based on deformable part modelJ. Applic ation Research of Computers,2021,333:953-956. in Chinese 4储岳中,黄勇, 张学锋,等。基于自注意力的SSD图像目的检测算法却I .华中科技大学学报自然科学版 , 2020.489:70-75.CHU Y Z,HUANG Y,ZHANG X F,et al. SSD image target detection algorithm based on self- attentionJ.Jourmal of Huazhong University of Science and Technology Nature Science Edition,2020 489-:70-75. in Chinese 5罗元,王薄宇,陈旭。基于深度学习的目的检测技术的研究综述0 .半导体光电, 2020,411:1-10.LUO Y,WANG B Y,CHEN X. Research progresses of target detection technologybased on deep learningJ Semiconductor Optoelectronics,2020,411:1-10. in Chinese 6 REN S Q,HE K M,GIRSHICK R,et al. Faster R-CNN:towards real-time object detection with region proposal networksJIEE Transactions on Pattern Analysis and Machine Intelligence,2021,3961137-1149. 7徐守坤,王雅如,顾玉宛。基于改良区域卷积神经网络的安全帽佩戴检测J .计算机工程与设计, 2020,415:1385-1389.XU S K,WANG Y R,GU Y W.Construction site safety helmet wearing detection based on improved region convolutional neural networkJComputer Engineering and Design,2020,415:1385- 1389. in Chinese 8 REDMON J,DIWALA S, GIRSHICK R,et al.You only look once:unified,real-time object detectionC/2021 IEEE Conference on Computer Vision and Pattern Recognition CVPR。Las Vegas,NV,USA:IEEE ,2021:779-788. 9 LIU W,ANGUELOV D ,ERHAN D,et al. SSD:single shot multibox detectorC/14th European Conference on Computer Vision Amsterdam,The Netherlands :Springer,2021:21-3 10 REDMON J,FARHAD A.YOLO9000: btter,faster, strongerC/2021 IEEE Conference on Computer Vision and Pattem Recognition CVPR。 Honolulu,HI,USAIEEE,2021:6517-6525. 11 LIU S T,HUANG D,WANG Y H.Receptive field block net for accurate and fast object detectionC/15th European Conference on Computer Vision. Munich ,Germany:Springer,2021:404-419 . 12 REDMON J,FARHAD A.YOL Ov3:an incremental improvementC/2021 IEEE Conference on Computer Vision and Pattern Recognition CVPR Salt Lake City,UT,USAIEEE,.2021:2767-2773. 13董永昌, 单玉刚,袁杰。基于改良SSD算法的行人检测方式方法 .计算机工程与设计, 2020,4110:2921-2926 .DONG Y C,SHAN Y G,YUAN J Pedestrian detection based on improved SSDJComputer Engineering and Design,2020,4110-:2921-2926 in Chinese 14陈柳,陈明举, 薛智爽,等。轻量化高精度卷积神经网络的安全帽辨别方式方法J/OL .计算机工程与应用, 1-82020-11-25 http : /ns-cnkinet-ncu1.naihes cn/kcms/detail/11.2127.TP.20201823.1727.009. .CHEN L,CHEN M J,XUE Z S,et al.Lightweight and high-precision convolutional neural network for helmet recognition methodJ/OL Computer Engineering and Applications,1-82020-11-25. http : hts:/kns- cnki-net-ncu1.naihes kcms/detai/11.2127.TP. 20201823.1727.009 . in Chinese 15唐悦,戈,朴燕。改良的GDT-YOLOV 3目的检测算法却J.液晶 与显示, 2020.358;852- 860. TANG Y,WU G,PIAO Y.Improved algorithm of GDT-YOLOV 3image target detectionJ.Chinese Journal of Liquid Crystals and Displays,2020,358:852-860.in Chinese 16 LIU S,Ql L,QIN H F,et al. Path aggregation network for instance segmentation/Proceedings of 2021IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City,UT,USA:IEEE,2021:8759-8768 . 17 HUANG G,LIU Z,VAN DER MAATEN L,et al .Densely connected convolutional networksC/2021 IEEEConference on Computer Vision and Pattern Recognition.Honolulu,HI,USA:IEEE,2021:2261-2269. 18 WOO S, PARK J,LEE J Y,et al.CBAM:convolutional block attention moduleC/2021 15th European Conference on Computer Vision. Munich, Germany:Springer,2021:3-19. 19 ZHENG Z H,WANG P,LIU W.et al. Distance-loU loss faster and better learning for bounding box regressionJ Proceedings of the AAAI Conference on Artificial Itelligence,2020,347:12993-13000. 划线 高亮 笔记 摘录 词典 复制

    注意事项

    本文(基于注意力机制的安全帽检测卷积神经网络建立,软件工程论文.docx)为本站会员(安***)主动上传,淘文阁 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知淘文阁 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于淘文阁 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号 © 2020-2023 www.taowenge.com 淘文阁 

    收起
    展开