2022年2022年卷积神经网络ConvolutionalNeuralNetworks .pdf
《2022年2022年卷积神经网络ConvolutionalNeuralNetworks .pdf》由会员分享,可在线阅读,更多相关《2022年2022年卷积神经网络ConvolutionalNeuralNetworks .pdf(9页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、卷积神经网络 Convolutional Neural Networks (CNN)一、什么是卷积首先回顾一下,数字图像处理中我们用卷积模板和原始图像的像素卷积。过程如下:Step 1、先将模板旋转180 度(又称折叠)Step 2、然后让模板依次和原始图像重叠,并且计算重叠部分的数值乘积之和以 2D 为例先对模板K 做折叠,然后依次覆盖图像I,并且计算重叠部分的数值乘积之和依次进行到最后,会多出一圈,得到最后的卷积结果名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 1 页,共 9
2、页 - - - - - - - - - 卷积的意义(图像处理而言);对图像使用不同的卷积模板,对图像做不同的处理。比如平滑模板可以使图像模糊,并且可以减少噪声、锐化模板可以使图像的轮廓变得清晰。二、卷积网络的结构2.1 从 BP 网络到卷积网络回想一下BP 神经网络。 BP 网络每一层节点是一个线性的一维排列状态,层与层的网络节点之间是全连接的。这样设想一下,如果BP 网络中层与层之间的节点连接不再是全连接,而是局部连接的。这样,就是一种最简单的一维卷积网络。如果我们把上述这个思路扩展到二维,这就是我们在大多数参考资料上看到的卷积神经网络。具体参看下图:图 1:全连接的2D 网络( BP 网络
3、)图 2:局部连接的2D 网络(卷积网络)现在我们考虑单隐层结构,上图左:全连接网络。如果我们有1000 x1000 像素的图像,有1 百万个隐层神经元,每个隐层神经元都连接图像的每一个像素点,就有 1000 x1000 x1000000=1012 个连接, 也就是 1012 个权值参数。上图右:局部连接网络,每一个节点与上层节点同位置附近10 x10 的窗口相连接,则1 百万个隐层神经元就只有100w 乘以 100,即 108 个参数。其权值连接个数比原来减少了四个数量级。因此,卷积网络降低了网络模型的复杂度,减少了权值的数量。该优点在网络的输入是多维图像时表现的更为明显,使图像可以直接作为
4、网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程。名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 2 页,共 9 页 - - - - - - - - - 2.2 卷积网络的结构卷积神经网络是一个多层的神经网络,每层由多个二维平面组成,而每个平面由多个独立神经元组成。卷积神经网络中的每一个特征提取层(C-层)都紧跟着一个用来求局部平均与二次提取的下采样层(S-层) , 这种特有的两次特征提取结构使网络在识别时对输入样本有较高的畸变容忍能力。图 3 经典的卷积神经网络结构图原
5、始图像的大小决定了输入向量的尺寸,隐层由C-层(特征提取层)和S-层(下采样层)组成,每层均包含多个平面。 C1 层神经元提取图像的局部特征,因此每个神经元都与前一层的局部感受野(也就是局部输入窗口)相连。C1 层中各平面(由神经元构成)提取图像中不同的局部特征,如边缘特征,上下左右方向特征等,C1 层中的输入是有由上一层局部窗口的数值和连接的权值的加权和(也就是卷积, 后面会具体解释为什么是卷积),然后通过一个激活函数(如 sigmoid 函数, 反正切函数)得到 C1 层的输出,接下来S2层是下采样层,简单来书,由4 个点下采样为1 个点,也就是4 个数的加权平均。换句话说,就是我们把2*
6、2 的像素缩小成为一个像素,某种意义上来说可以认识是图像处理中的模糊。然后按照这个CS的结构继续构成隐层,当然这些隐层的连接都是局部相连的。同时有人会问了,例如S2和 C3 层具体要怎么连接呢,为什么会从6 张变成 16 张特征图呢。 C3 层的特征图是由S2 层图像的感受野和对应权值的卷积后,通过随机的组合而形成的,也就意味着S2层和 C3 层并不像 C1 层和 S2 层那样是一一对应的。但当我们感受野的大小和图像一样时,我们经过特征提取后就变成一个像素了,这里我们开始使用全连接(这样才能完整的把特征保留)。名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - -
7、 - - - - - - - 名师精心整理 - - - - - - - 第 3 页,共 9 页 - - - - - - - - - 2.3 为什么给这种局部连接命名为卷积网络卷积网络第一个特点是连接权值远远小于BP 网络的权值。卷积神经网络另外一个特性是权值共享。这样一来就更进一步减少了对网络权值的训练(毕竟权值是共享的,也就意味着有一些全是是相同的)。权值共享是指同一平面层的神经元权值相同。如何理解呢!看下图2,假设红色的点和黑色的点是C1 层第一个特征图的2 个不同神经元, 感受窗口的大小是5*5 的 (意味着有25 个连接),这 2 个神经元连接的权值是共享的(相同的)。这样一来,C1
8、层中的每个神经元的输入值,都有由原始图像和这个相同的连接权值的加权和构成的,想想看,这个过程是不是和卷积的过程很像呢!没错,就是由这个得名的。同时这样一来,我们需要训练的权值就更少了,因为有很多都是相同的。还没理解的话,接着看 C1 层是一个卷积层(也就是上面说的特征提取层),由 6 个特征图Feature Map 构成。特征图中每个神经元与输入中5*5 的邻域相连。特征图的大小为28*28 。C1 层有 156 个可训练参数(每个滤波器 5*5=25个 unit 参数和一个bias偏置 参数,一共6 个滤波器,共 (5*5+1)*6=156个参数),共156*(28*28)=122,304个
9、连接。S2 层是一个下采样层,有6 个 14*14 的特征图。特征图中的每个单元与C1 中相对应特征图的2*2 邻域相连接。 S2 层每个单元的4 个输入相加,乘以一个可训练参数,再加上一个可训练偏置。结果通过sigmoid 函数计算。每个单元的2*2 感受野并不重叠,因此S2 中每个特征图的大小是C1中特征图大小的1/4(行和列各1/2) 。S2 层有 12 个可训练参数和5880 个连接。名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 4 页,共 9 页 - - - - - -
10、- - - 三、卷积网络的训练我们想想卷积网络到底有什么那些参数需要训练呢。第一、卷积层中的卷积模板的权值。第二、下采样层的2 个参数(每个单元的4 个输入相加,乘以一个可训练参数,再加上一个可训练偏置),第三、学习特征的组合(例如S2 到 C3 的组合方式)3.1 我们先回顾一下BP 的反向传播算法3.1.1、 Feedforward Pass 前向传播在下面的推导中,我们采用平方误差代价函数。我们讨论的是多类问题,共c 类,共 N 个训练样本。这里表示第 n 个样本对应的标签的第k 维。表示第 n 个样本对应的网络输出的第k 个输出。对于多类问题,输出一般组织为“one -of-c” 的形
11、式,也就是只有该输入对应的类的输出节点输出为正, 其他类的位或者节点为0 或者负数, 这个取决于你输出层的激活函数。sigmoid 就是 0,tanh就是 -1. 因为在全部训练集上的误差只是每个训练样本的误差的总和,所以这里我们先考虑对于一个样本的 BP。对于第n 个样本的误差,表示为:传统的全连接神经网络中,我们需要根据BP 规则计算代价函数E 关于网络每一个权值的偏导数。我们用l 来表示当前层,那么当前层的输出可以表示为:输出激活函数f(.)可以有很多种,一般是sigmoid 函数或者双曲线正切函数。sigmoid 将输出压缩到 0, 1,所以最后的输出平均值一般趋于0 。所以如果将我们
12、的训练数据归一化为零均值和方差为 1,可以在梯度下降的过程中增加收敛性。对于归一化的数据集来说,双曲线正切函数也是不错的选择。3.1.2、 Backpropagation Pass 反向传播反向传播回来的误差可以看做是每个神经元的基的灵敏度sensitivities(灵敏度的意思就是我们的基 b 变化多少,误差会变化多少,也就是误差对基的变化率,也就是导数了),定义如下:(第二个等号是根据求导的链式法则得到的)因为 ?u/?b=1,所以 ?E/?b=?E/?u=,也就是说bias 基的灵敏度 ?E/?b= 和误差 E 对一个节点全部输入 u 的导数 ?E/?u 是相等的。 这个导数就是让高层误
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 2022年2022年卷积神经网络ConvolutionalNeuralNetworks 2022 卷积 神经网络 ConvolutionalNeuralNetworks
限制150内