深度卷积神经网络ppt课件.pptx
《深度卷积神经网络ppt课件.pptx》由会员分享,可在线阅读,更多相关《深度卷积神经网络ppt课件.pptx(106页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、目录目录 神经网络简要介绍 经典深度神经网络模型 LeNet AlexNetVGGNetNetwork in Network (MIN)GoogLeNetResNet 深度学习框架及实例 深度学习在计算机视觉中的应用 神经网络简要介绍 经典深度神经网络模型 LeNet AlexNetVGGNetNetwork in Network (MIN)GoogLeNetResNet 深度学习框架简介 在计算机视觉中的应用目录目录神经网络兴衰史神经网络兴衰史神经网络简要介绍神经网络简要介绍第一次兴起(第一次兴起(19581958年):年):感知机,由于没有引入非线性,不能求解异或问题。第二次兴起(第二次兴
2、起(19861986年):年):将BP(Back Propagation)算法用于ANN的训练过程。第三次兴起(第三次兴起(20122012年):年):深度卷积神经网络的兴起,一直到现在。BPBP算法:信号的正向传播算法:信号的正向传播和误差的反向传播。和误差的反向传播。机器学习神经网络深度学习CNN/RNN4机器学习,神经网络,深度学习之间的关系深度卷积神经网络介绍深度卷积神经网络介绍萌芽期萌芽期1940sMP 模型模型阈值加和阈值加和模型模型Hebb学习学习规则规则第一次高潮第一次高潮1960s第二次高潮第二次高潮1980s第三次浪潮第三次浪潮2000s感知器模型感知器模型自适应自适应-线
3、性单元线性单元Hopfield网络网络Boltzman 机机BP算法算法SVMVapnik 95BoostingSchapire 95深度网络深度网络DBNDBMDeep CNN RNNG. E. HintonY. BengioY. LecunAndrew NgRob Fergus人工神经网络发展历程人工神经网络发展历程低谷CNNLeCun 98低谷Deep Learning, Science 2006 (vol. 313, pp. 504-507)Neural networks are coming back!1. 具有多个隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本
4、质的刻画,从而有利于可视化或分类;2. 深度神经网络在训练上的难度,可以通过“逐层初始化”(Layer-wise Pre-training)来有效克服。两个重要的信息:两个重要的信息:人工神经网络发展历程人工神经网络发展历程 在语音识别取得重大突破在语音识别取得重大突破百度百度: deep speech2011年以来,错误年以来,错误率降低率降低20 30%!2012年11月,微软在天津的一次活动上公开演示了一个全自动的同声传译系统,讲演者用英文演讲,后台的计算机一气呵成自动完成语音识别、英中机器翻译,以及中文语音合成,效果非常流畅。人工神经网络发展历程人工神经网络发展历程 Google Br
5、ainGoogle Brain项目(纽约时报项目(纽约时报20122012年年6 6月报道)月报道)2011年开始,年开始,Google Brain 项目采用项目采用16000个个CPU Core的并行计算的并行计算平台训练平台训练“深层神经网络深层神经网络”,在图像识别等领域获取巨大成功!在图像识别等领域获取巨大成功!吴恩达吴恩达人工神经网络发展历程人工神经网络发展历程AlphaGo Master 3:0 柯洁柯洁2017年年1月月AlphaGo Fan 5:0 樊麾樊麾2015年年10月月AlphaGo Lee 4:1 李世石李世石2016年年3月月100:0战胜Lee版本,89:11战胜
6、Master版本!AlphaGo Zero20172017年年1010月月AlphaZero:最大特点是无需人类棋谱,仅利用围棋规则Alpha-FanAlpha-FanAlphaGo-LeeAlphaGo-LeeAlphaMasterAlphaMasterAlphaZeroAlphaZero人工神经网络发展历程人工神经网络发展历程 为什么有效为什么有效 浅层神经网络可以近似任意函数,为何多层?浅层神经网络可以近似任意函数,为何多层?深层网络结构中,高层可以综合应用低层信息。高层可以综合应用低层信息。低层关注“局部”,高层关注高层关注“全局全局”、更具有语、更具有语义化信息。义化信息。为自适应地
7、学习非线性处理过程自适应地学习非线性处理过程提供了一种可能的一种可能的简洁、普适的结构模型。简洁、普适的结构模型。特征提取与分类器可以一起学习。特征提取与分类器可以一起学习。人工神经网络发展历程人工神经网络发展历程 发展基础:发展基础: 数据爆炸:数据爆炸:图像数据、文本数据、语音数据、社交网络数据、科学计算等 计算性能大幅提高计算性能大幅提高神经网络简要介绍神经网络简要介绍人类视觉机理:人类视觉机理: David Hubel和TorstenWiesel发现了视觉系统的信息处理方式,即视皮层的分级特性,获得1981年诺贝尔生理学或医学奖。Low-level sensingPreprocessi
8、ngFeatureextractionFeatureselectionInference:prediction,recognition本图取自:本图取自:http:/ during the training phase, a neural network is fed thousands of labeled images of various animals, learning to classify them Input: An unlabeled image is shown to the pre-trained networkFirst Layer: the neurons respo
9、nd to different simple shapes, like edgesHigh Layer: the neurons respond to more complex structuresTop Layer: the neurons respond to highly complex, abstract concepts that we would identify as different animalsOutput: The network predicts what the object most likely is, based on its training神经网络简要介绍
10、神经网络简要介绍人工神经网络(人工神经网络(Artificial Neural NetworksArtificial Neural Networks, ANNANN)-通过映射解决分类问题,对网络的训练即对映射函数的学习问题。卷积层(5层):用于特征提取全连接(3层):人工神经网络:用于分类神经网络简要介绍神经网络简要介绍输入层(Input):数据输入隐含层(Hidden layer):空间变换输出(Output)三层神经三层神经网络模型网络模型曲线上的采样点是线性不可分经空间变换后,曲线上的采样点是线性可分的神经网络简要介绍神经网络简要介绍神经元神经元树突输入神经元接收信号隐含层输入神经元激
11、活轴突发出信号隐含层输出ANNANNANN是对大脑神经元信号传输的模拟神经网络简要介绍神经网络简要介绍感知机(感知机(PerceptronPerceptron)通过查找超平面解决二类分类问题(通过二值函数解决二类分类问题)( )()fsignxw x公式表达:公式表达:可看作对输入的空间变换w x四种空间变换:维度、缩放、旋转、平移感知机中的线性映射限制了模型的表达能力,线性变化的组合仍为线性变化。神经网络简要介绍神经网络简要介绍ANNANN基本构成基本构成:感知机(Perceptron)+激活函数激活函数第五种空间变换:扭曲(非线性)ANNANN每层输出为:每层输出为:( )()fhxw x
12、其中, 为激活函数(原来是阈值函数)( )h 常用激活函数: Sigmoid Tanh(反正切函数)感知机:线性变换激活函数:非线性,引入非线性激活函数,提高网络的非线性表达能力神经网络简要介绍神经网络简要介绍输入层隐含层1隐含层N分类输出多层结构的人工神经网络多层结构的ANN,从单层到多层的扩展:进一步提升对非线性的表达,得到更加抽象的特征表述。- 根据问题设计网络深度,一般35层。.1x2xnx1w2wnw1niiix w1()niiihx w人工神经网络单个节点输出神经网络简要介绍神经网络简要介绍ANNANN训练:训练:前向输出计算前向输出计算+反向梯度传播(BP算法)设网络具有 层,
13、为 层中第 个节点输出, 表示从 到 的连接权重。mmiyimmijw1miymjy前向传播1()()mmmmjjijiiyh shw y1、计算每层中每个节点的输出()h为激活函数2、在输出层计算损失()()mmmjjjjh sTyjT为目标参考输出,一般从样本训练中得到。.1mmjy1miymijwmjmloss前向传播过程1神经网络简要介绍神经网络简要介绍ANNANN训练:训练:前向输出计算+反向梯度传播(反向梯度传播(BPBP算法)算法)反向传播3、由输出层开始逐层计算前层误差11()mmmmiiijjjh sw1mmmijjimmmijijijwywww4、修正连接权重.mijwmj
14、梯度反传过程1mi神经网络简要介绍神经网络简要介绍ANNANN训练:训练:前向输出计算+反向梯度传播(反向梯度传播(BPBP算法)算法)神经网络简要介绍神经网络简要介绍深度神经网络深度神经网络(DNN)-(DNN)-用神经网络模拟大脑的识别过程用神经网络模拟大脑的识别过程神经网络神经网络-全连接全连接 or or 卷积?卷积?图:全连接与卷积示意图深度卷积神经网络介绍深度卷积神经网络介绍 底层提取初级特征 高层对低层特征组合与抽象深度卷积神经网络介绍深度卷积神经网络介绍卷积神经网络(卷积神经网络(CNNCNN):卷积):卷积+ +池化池化+ +全连接全连接卷积:卷积: 局部特征提取 训练中进行
15、参数学习 每个卷积核提取特定模式的特征池化(下采样):池化(下采样): 降低数据维度,避免过拟合 增强局部感受野 提高平移不变性全连接:全连接: 特征提取到分类的桥梁什么是卷积?24右图展示了卷积的过程,和信号处理的卷积有所区别卷积降低了网络模型的复杂度(对于很难学习的深层结构来说,这是非常重要的),减少了权值的数量黄色部分是卷积核深度卷积神经网络介绍深度卷积神经网络介绍什么是池化?25池化层主要的作用是下采样下采样,通过去掉Feature Map中不重要的样本,进一步减少参数数量。池化的方法很多,最常用的是Max Pooling。Max Pooling实际上就是在n*n的样本中取最大值,作为
16、采样后的样本值。右图是2*2 max 深度卷积神经网络介绍深度卷积神经网络介绍底层特征具有局部特性,因此可以利用卷积窗口进行特征提取。图像中不同区域的底层特征(如边界)具有相似性,可以共享一组滤波器。用卷积代替全连接进行特征提取对底层特征组合得到更具语义信息的高层特征。深度卷积神经网络深度卷积神经网络介绍深度卷积神经网络介绍 深度卷积神经网络介绍 经典深度神经网络模型 LeNet AlexNetVGGNetNetwork in Network (MIN)GoogLeNetResNet 深度学习框架 在计算机视觉中的应用目录目录网络模型网络模型LeNetAlexNetNINVGGNetGoogL
17、eNet(Inception)ResNetInception ResNet图3:ILSVRC图像分类竞赛近年结果。网络结构的改进网络深度的增加图2:深度卷积神经网络发展图图4:LeNet网络结构,来源于文献 1。最早的深度卷积神经网络模型,用于字符识别。网络具有如下特点:卷积神经网络使用三个层作为一个系列: 卷积,池化,非线性使用卷积提取空间特征使用映射到空间均值的下采样(subsample)双曲线(tanh)或S型(sigmoid)形式的非线性多层神经网络(MLP)作为最后的分类器1 Y. Lecun, L. Bottou, Y. Bengio and P. Haffner. Gradien
18、t-Based Learning Applied to Document Recognition. Proceedings of the IEEE, vol. 86, no. 11, 1998. LeNet提供了利用卷积层堆叠进行特征提取的框架,开启了深度卷积神经网络的发展。LeNetAlexNetAlexNet在LeNet基础上进行了更宽更深的网络设计,首次在CNN中引入了ReLU、Dropout和Local Response Norm (LRN)等技巧。网络的技术特点如下: 使用ReLU (Rectified Linear Units)作为CNN的激活函数,并验证其效果在较深的网络超过了S
19、igmoid,成功解决了Sigmoid在网络较深时的梯度弥散问题,提高了网络的训练速率。 为避免过拟合,训练时使用Dropout随机忽略一部分神经元。 使用重叠的最大池化(max pooling)。最大池化可以避免平均池化的模糊化效果,而采用重叠技巧可以提升特征的丰富性。 提出了LRN层(ReLU后进行归一化处理),对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强了模型的泛化能力。 利用GPU强大的并行计算能力加速网络训练过程,并采用GPU分块训练的方式解决显存对网络 规模的限制。ReLUReLU 数据增强。利用随机裁剪和翻转镜像操作增加训练
20、数据量,降低过拟合。Dropoutmax pooling:池化时取最大值2 Alex Krizhevsky, Ilya Sutskever and Geoffrey E. Hinton. ImageNet Classification with Deep ConvolutionalNeural Networks. NIPS, 2012. 图:AlexNet网络结构,来源于文献2。网络包含5个卷积层和3个全连接层,最后为有1000个类别输出的Softmax层。网络在两块GPU上并行训练。AlexNetConv 1111+ReLU/96LRNMax pooling 33Conv 55+ReLU/2
21、56LRNMax pooling 33Conv 33+ReLU/384Conv 33+ReLU/384Conv 33+ReLU/256Max pooling 33FC+ReLU/4096FC+ReLU/4096FC+ReLU/1000网络结构35K307K884K1.3M442K37M16M4M参数图:AlexNet网络配置和参数数量卷积核大小递减,依次为1111、55和33。 第一层卷积步长为4,之后保持为1。在前两层卷积之后使用了LRN层。与全连接层相比,卷积层包含较少的参数。 因此可通过减少全连接层降低网络参数,提高 训练时间,在Network in Network中利用了这一点。Ale
22、xNet在ILSVRC2012图像分类竞赛中将top-5 错误率降至16.4%,掀起了深度卷积神经网络在各个领域的研究热潮。AlexNetVGGNet3 Karen Simonyan and Andrew Zisserman. Very Deep Convolutional Networks for Large-Scale Image Recognition. Computer Science, 2014. 结构特点:结构特点: 对卷积核和池化大小进行了统一。网络中进行 33的卷积操作和22的最大池化操作。 采用卷积层堆叠的策略,将多个连续的卷积层构成卷积层组。图:两个33卷积层堆叠和一个55
23、卷积层具有相同的感受野。 和单个卷积层相比,卷积组可以提高感受野范围,增强网络的学习能力和特征表达能力; 和具有较大核的卷积层相比,采用多个具有小卷积核的卷积层串联的方式能够减少网络参数; 另外,在每层卷积之后进行ReLU非线性操作可以进一步提升网络的特征学习能力。优点:优点:图:VGG不同级别的网络结构和相应的参数数量(单位为百万),来源于文献 3。 网络包含5组卷积操作,每组包含14个连续 的卷积层,每两个卷积层之间为ReLU层。 每组内的卷积层具有相同的结构。 不同级别的网络层数逐渐加深,网络的表达 能力也逐渐增强。其中,VGGNet-E的网络 深度达到了19层。 由于网络参数主要集中在
24、全连接层,因此 不同级别网络的参数数量相差不大。VGGNetVGGNetVGGNet训练和测试:训练和测试:多尺度策略: 训练阶段,将图像缩放到不同尺寸S,并随机裁剪224224的训练样本 测试阶段,将图像缩放到尺寸Q,并对网络最后的卷积层使用滑动窗口进行分类预测,对不同窗口的分类结果取平均。图9:VGGNet采用多尺度策略的效果提升,来源于文献 3。上方图像为单尺度分类结果,下方为多尺度结果。多尺度训练在ILSVRC2014图像分类的top-5错误率达到7.5%,通过进一步融合单尺度和多尺度网络,VGGNet将最终结果提升至7.3%。VGGNetNetwork in Network (NIN
25、)3 Min Lin, Qiang Chen and Shuicheng Yan. Network in Network. ICLR, 2014. 研究目的:研究目的:提高网络对非线性特征的描述能力减小网络参数研究策略:研究策略:采用多层感知器(multilayer perceptron, MLP)代替传统的线性卷积层。用全局均值池化(global average pooling)代替全连接层,大大减小了网络复杂度,降低了过拟合。MLPMLP卷积卷积图10:传统卷积层和MLP卷积层示意图,来源于文献3。和传统卷积相比,Mlpconv在卷积之后增加了两个全连接层。传统的卷积+ReLU可表达为:,
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 深度 卷积 神经网络 ppt 课件
限制150内