卷积神经网络总结(共5页).docx





《卷积神经网络总结(共5页).docx》由会员分享,可在线阅读,更多相关《卷积神经网络总结(共5页).docx(5页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、精选优质文档-倾情为你奉上1 卷积神经网络卷积神经网络是深度学习的一种,已成为当前图像理解领域的研究热点它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。这个优点在网络的输入是多维图像时表现得更为明显, 图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程. 卷积网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放以及其他形式的变形具有一定不变性. 在典型的CNN 中,开始几层通常是卷积层和下采样层的交替, 在靠近输出层的最后几层网络通常是全连接网络。卷积神经网络的训练过程主要是学习卷积层的卷积核参数和层间连
2、接权重等网络参数, 预测过程主要是基于输入图像和网络参数计算类别标签。卷积神经网络的关键是:网络结构(含卷积层、下采样层、全连接层等) 和反向传播算法等。在本节中, 我们先介绍典型CNN 的网络结构和反向传播算法, 然后概述常用的其他CNN 网络结构和方法。神经网络参数的中文名称主要参考文献18 卷积神经网络的结构和反向传播算法主要参考文献17 。1.1 网络结构1.1.1 卷积层在卷积层, 上一层的特征图(Feature map) 被一个可学习的卷积核进行卷积, 然后通过一个激活函数(Activation function), 就可以得到输出特征图. 每个输出特征图可以组合卷积多个特征图的值
3、17 :其中, 称为卷积层l的第j 个通道的净激活(Netactivation), 它通过对前一层输出特征图进行卷积求和与偏置后得到的, 是卷积层l的第j 个通道的输出。称为激活函数, 通常可使用sigmoid 和tanh 等函数。表示用于计算的输入特征图子集, 是卷积核矩阵, 是对卷积后特征图的偏置。对于一个输出特征图,每个输入特征图对应的卷积核可能不同,“*”是卷积符号。1.1.2 下采样层下采样层将每个输入特征图通过下面的公式下采样输出特征图17:其中, 称为下采样层l的第j 通道的净激活, 它由前一层输出特征图进行下采样加权、偏置后得到, 是下采样层的权重系数, 是下采样层的偏置项.
4、符号表示下采样函数, 它通过对输入特征图通过滑动窗口方法划分为多个不重叠的图像块, 然后对每个图像块内的像素求和、求均值或最大值, 于是输出图像在两个维度上都缩小了n 倍。1.1.3 全连接层在全连接网络中, 将所有二维图像的特征图拼接为一维特征作为全连接网络的输入. 全连接层l的输出可通过对输入加权求和并通过激活函数的响应得到17:其中, 称为全连接层l 的净激活, 它由前一层输出特征图进行加权和偏置后得到的。是全连接网络的权重系数, 是全连接层l 的偏置项。1.2 反向传播算法神经网络有两类基本运算模式: 前向传播和学习. 前向传播是指输入信号通过前一节中一个或多个网络层之间传递信号, 然
5、后在输出层得到输出的过程. 反向传播算法是神经网络有监督学习中的一种常用方法, 其目标是根据训练样本和期望输出来估计网络参数. 对于卷积神经网络而言, 主要优化卷积核参数k、下采样层网络权重、全连接层网络权重w 和各层的偏置参数b 等. 反向传播算法的本质在于允许我们对每个网络层计算有效误差, 并由此推导出一个网络参数的学习规则, 使得实际网络输出更加接近目标值18。我们以平方误差损失函数的多分类问题为例介绍反向传播算法的思路. 考虑一个多分类问题的训练总误差, 定义为输出端的期望输出值和实际输出值的差的平方17:其中, 是第n 个样本的类别标签真值, 是第n个样本通过前向传播网络预测输出的类
6、别标签. 对于多分类问题, 输出类别标签常用一维向量表示, 即输入样本对应的类别标签维度为正数, 输出类别标签的其他维为0 或负数, 这取决于选择的激活函数类型, 当激活函数选为sigmoid, 输出标签为0, 当激活函数为tanh, 输出标签为-1。反向传播算法主要基于梯度下降方法, 网络参数首先被初始化为随机值, 然后通过梯度下降法向训练误差减小的方向调整. 接下来, 我们以多个“卷积层-采样层”连接多个全连接层的卷积神经网络为例介绍反向传播算法。首先介绍网络第l 层的灵敏度(Sensitivity)17,18:其中, 描述了总误差E 怎样随着净激活而变化. 反向传播算法实际上通过所有网络
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 卷积 神经网络 总结

限制150内