欢迎来到淘文阁 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
淘文阁 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    卷积神经网络总结(共5页).docx

    • 资源ID:7834041       资源大小:113.23KB        全文页数:5页
    • 资源格式: DOCX        下载积分:20金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要20金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    卷积神经网络总结(共5页).docx

    精选优质文档-倾情为你奉上1 卷积神经网络卷积神经网络是深度学习的一种,已成为当前图像理解领域的研究热点它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。这个优点在网络的输入是多维图像时表现得更为明显, 图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程. 卷积网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放以及其他形式的变形具有一定不变性. 在典型的CNN 中,开始几层通常是卷积层和下采样层的交替, 在靠近输出层的最后几层网络通常是全连接网络。卷积神经网络的训练过程主要是学习卷积层的卷积核参数和层间连接权重等网络参数, 预测过程主要是基于输入图像和网络参数计算类别标签。卷积神经网络的关键是:网络结构(含卷积层、下采样层、全连接层等) 和反向传播算法等。在本节中, 我们先介绍典型CNN 的网络结构和反向传播算法, 然后概述常用的其他CNN 网络结构和方法。神经网络参数的中文名称主要参考文献18 卷积神经网络的结构和反向传播算法主要参考文献17 。1.1 网络结构1.1.1 卷积层在卷积层, 上一层的特征图(Feature map) 被一个可学习的卷积核进行卷积, 然后通过一个激活函数(Activation function), 就可以得到输出特征图. 每个输出特征图可以组合卷积多个特征图的值17 :其中, 称为卷积层l的第j 个通道的净激活(Netactivation), 它通过对前一层输出特征图进行卷积求和与偏置后得到的, 是卷积层l的第j 个通道的输出。称为激活函数, 通常可使用sigmoid 和tanh 等函数。表示用于计算的输入特征图子集, 是卷积核矩阵, 是对卷积后特征图的偏置。对于一个输出特征图,每个输入特征图对应的卷积核可能不同,“*”是卷积符号。1.1.2 下采样层下采样层将每个输入特征图通过下面的公式下采样输出特征图17:其中, 称为下采样层l的第j 通道的净激活, 它由前一层输出特征图进行下采样加权、偏置后得到, 是下采样层的权重系数, 是下采样层的偏置项. 符号表示下采样函数, 它通过对输入特征图通过滑动窗口方法划分为多个不重叠的图像块, 然后对每个图像块内的像素求和、求均值或最大值, 于是输出图像在两个维度上都缩小了n 倍。1.1.3 全连接层在全连接网络中, 将所有二维图像的特征图拼接为一维特征作为全连接网络的输入. 全连接层l的输出可通过对输入加权求和并通过激活函数的响应得到17:其中, 称为全连接层l 的净激活, 它由前一层输出特征图进行加权和偏置后得到的。是全连接网络的权重系数, 是全连接层l 的偏置项。1.2 反向传播算法神经网络有两类基本运算模式: 前向传播和学习. 前向传播是指输入信号通过前一节中一个或多个网络层之间传递信号, 然后在输出层得到输出的过程. 反向传播算法是神经网络有监督学习中的一种常用方法, 其目标是根据训练样本和期望输出来估计网络参数. 对于卷积神经网络而言, 主要优化卷积核参数k、下采样层网络权重¯、全连接层网络权重w 和各层的偏置参数b 等. 反向传播算法的本质在于允许我们对每个网络层计算有效误差, 并由此推导出一个网络参数的学习规则, 使得实际网络输出更加接近目标值18。我们以平方误差损失函数的多分类问题为例介绍反向传播算法的思路. 考虑一个多分类问题的训练总误差, 定义为输出端的期望输出值和实际输出值的差的平方17:其中, 是第n 个样本的类别标签真值, 是第n个样本通过前向传播网络预测输出的类别标签. 对于多分类问题, 输出类别标签常用一维向量表示, 即输入样本对应的类别标签维度为正数, 输出类别标签的其他维为0 或负数, 这取决于选择的激活函数类型, 当激活函数选为sigmoid, 输出标签为0, 当激活函数为tanh, 输出标签为-1。反向传播算法主要基于梯度下降方法, 网络参数首先被初始化为随机值, 然后通过梯度下降法向训练误差减小的方向调整. 接下来, 我们以多个“卷积层-采样层”连接多个全连接层的卷积神经网络为例介绍反向传播算法。首先介绍网络第l 层的灵敏度(Sensitivity)17,18:其中, 描述了总误差E 怎样随着净激活而变化. 反向传播算法实际上通过所有网络层的灵敏度建立总误差对所有网络参数的偏导数, 从而得到使得训练误差减小的方向。1.2.1 卷积层为计算卷积层l 的灵敏度, 需要用下一层下采样层l + 1 的灵敏度表示卷积层l 的灵敏度, 然后计算总误差E 对卷积层参数(卷积核参数k、偏置参数b) 的偏导数.由于下采样层的灵敏度尺寸小于卷积层的灵敏度尺寸, 因此需要将下采样层l + 1 的灵敏度上采样到卷积层l 的灵敏度大小, 然后将第l 层净激活的激活函数偏导与从第l + 1 层的上采样得到的灵敏度逐项相乘. 分别由式(1) 和(2), 通过链式求导可得第l 层中第j 个通道的灵敏度17:其中, 表示一个上采样操作, 符号± 表示每个元素相乘. 若下采样因子为n, 则将每个像素在水平和垂直方向上复制n 次, 于是就可以从l + 1层的灵敏度上采样成卷积层l 的灵敏度大小. 函数可以用Kronecker 乘积来实现。然后, 使用灵敏度对卷积层l 中的参数计算偏导. 对于总误差E 对偏移量的偏导, 可以对卷积层l 的灵敏度中所有节点进行求和来计算:对于总误差关于卷积核参数的偏导, 由式(1),使用链式求导时需要用所有与该卷积核相乘的特征图元素来求偏导:其中, 是在计算时, 与逐元素相乘的元素.1.2.2 下采样层为计算下采样层l 的灵敏度, 需要用下一层卷积层l + 1 的灵敏度表示下采样层l 的灵敏度, 然后计算总误差E 对下采样参数权重系数、偏置参数b的偏导数.为计算我们需要下采样层l 的灵敏度, 我们必须找到当前层的灵敏度与下一层的灵敏度的对应点,这样才能对灵敏度进行递推. 另外, 需要乘以输入特征图与输出特征图之间的连接权值, 这个权值实际上就是卷积核的参数. 分别由式(1) 和(2), 通过链式求导可得第l 层第j 个通道的灵敏度17:其中, 对卷积核旋转180 度使用卷积函数计算互相关(在Matlab 中, 可用conv2 函数实现), 对卷积边界进行补零处理.然后, 总误差对偏移量b 的偏导与前面卷积层的一样, 只要对灵敏度中所有元素的灵敏度求和即可:对于下采样权重, 我们先定义下采样算子, 然后可通过下面的公式计算总误差E 对的偏导:这里我们假定下采样层的下一层为卷积层, 如果下一层为全连接层, 也可以做类似的推导.全连接层l的灵敏度可通过下式计算:输出层的神经元灵敏度可由下面的公式计算:总误差对偏移项的偏导如下:接下来可以对每个神经元运用灵敏度进行权值更新. 对一个给定的全连接层l, 权值更新方向可用该层的输入 和灵敏度 的内积来表示:1.2.4 网络参数更新过程卷积层参数可用下式更新:下采样层参数可用下式更新:全连接层参数可用下式更新:其中, 对于每个网络参数都有一个特定的学习率.若学习率太小, 则训练的速度慢; 若学习率太大, 则可导致系统发散. 在实际问题中, 如果总误差在学习过程中发散, 那么将学习率调小; 反之, 如果学习速度过慢, 那么将学习率调大.1.3 常用的其他网络结构和方法1.3.1 卷积层传统卷积神经网络的卷积层采用线性滤波器与非线性激活函数, 一种改进的方法在卷积层使用多层感知机模型作为微型神经网络, 通过在输入图像中滑动微型神经网络来得到特征图, 该方法能够增加神经网络的表示能力, 被称为Network in net-work19. 为了解决既能够保证网络的稀疏性, 又能够利用稠密矩阵的高性能计算, Szegedy 等11 提出Inception 网络. Inception 网络的一层含有一个池化操作和三类卷积操作: 1 *1、3 *3、5 * 5 卷积。1.3.2 池化池化(Pooling) 是卷积神经网络中一个重要的操作, 它能够使特征减少, 同时保持特征的局部不变性. 常用的池化操作有: 空间金字塔池化(Spatial pyramid pooling, SPP)10、最大池化(Max pooling)、平均池化(Mean pooling)、随机池化(Stochastic pooling)20 等. 1.3.3 激活函数常用激活函数有: ReLU8、Leakly ReLU21、Parametric ReLU、Randomized ReLU、ELU 等.1.3.4 损失函数损失函数的选择在卷积神经网络中起重要作用, 代表性的损失函数有: 平方误差损失、互熵损失(Cross entropy loss)、Hinge 损失等.1.3.5 优化方法和技巧卷积神经网络常用的优化方法包含随机梯度下降方法(Stochastic gradient descent, SGD), 常用的技巧有权值初始化8、权值衰减(Weight decay)18、Batch normalization22 等.1.4 卷积神经网络的优势卷积神经网络在下采样层可以保持一定局部平移不变形, 在卷积层通过感受野和权值共享减少了神经网络需要训练的参数的个数. 每个神经元只需要感受局部的图像区域, 在更高层将这些感受不同局部区域的神经元综合起来就可以得到全局的信息.因此, 可以减少网络连接的数目, 即减少神经网络需积神经网络以其权值共享的特殊结构在图像理解领域中有着独特的优越性, 通过权值共享降低了网络的复杂性.总之, 卷积神经网络相比于一般神经网络在图像理解中有其特殊的优点: 1) 网络结构能较好适应图像的结构; 2) 同时进行特征提取和分类, 使得特征提取有助于特征分类; 3) 权值共享可以减少网络的训练参数, 使得神经网络结构变得更简单、适应性更强.要训练的权值参数的个数. 由于同一特征通道上的神经元权值相同, 所以网络可以并行学习, 这也是卷积网络相对于神经元彼此相连网络的一大优势. 专心-专注-专业

    注意事项

    本文(卷积神经网络总结(共5页).docx)为本站会员(飞****2)主动上传,淘文阁 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知淘文阁 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于淘文阁 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号 © 2020-2023 www.taowenge.com 淘文阁 

    收起
    展开