《深度学习介绍》PPT课件.ppt
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《《深度学习介绍》PPT课件.ppt》由会员分享,可在线阅读,更多相关《《深度学习介绍》PPT课件.ppt(43页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、深度学习简介主要内容神经网络深度学习 介绍 常用方法Stacked Auto-EncoderConvolutional Neural NetworkDeep Belief Network 评价与应用展望神经网络在机器学习与认知识别领域中,人工神经网络是一类模拟生物神经网络(中枢神经网络,特别是大脑)的模型,用来预测(决策问题)或估计基于大量未知数据的函数模型。人工神经网络一般呈现为相互关联的“神经元”相互交换信息的系统。在神经元的连接中包含可根据经验调整的权重,使得神经网络可以自适应输入,并且拥有学习能力。作为机器学习方法的一种,神经网络算法可以用来处理一系列传统方法无法处理或处理难度较大的问
2、题,包括计算机视觉、语音识别方面等。基本结构神经网络的基本单元是神经元。通过对所有输入的加权求和与非线性映射得到该神经元的输出(激活值)。神经网络按照拓扑结构,属于一神经元为节点,以及节点间有向连接为为边的一种图,大体分为层状与网状两大类。常用激活函数:阈值函数 双向阈值函数 S型函数 双曲正切函数 高斯函数神经元模型BP网络前馈网络的逐层计算:输入值从输入层单元通过连接权重加权激活逐层向前传播经过隐层最后到达输出层得到输出。在信号的向前传递过程中,网络的权值是固定不变的,每一层神经元的状态只影响下一层神经元的状态。反向传播算法:网络的实际输出与期望输出之间的差值即为误差信号。误差信号由输出端
3、开始逐层向前传播,这是误差信号的反向传播。在误差信号反向传播的过程中,网络的权值由误差反馈进行调节,通过权值的不断修正使网络的实际输出更加接近期望输出。前馈网络结构说明代价函数 在遇到回归问题时,指定代价函数 以使目标变量的真实值和预测值的距离最小 代价函数描述了网络输出与真实值之间的误差。通过随机梯度下降的方法最小化代价函数以提高网络精度 可以在代价函数中引入其他约束以满足设定要求BP算法反向传播与梯度下降BP算法流程S型函数导数主要问题主要问题 易陷入局部极小而得不到全局最优。训练次数多使得学习效率低,收敛速度慢。对于隐层和隐节点的个数选择,至今还没有一个具体的定论,缺乏理论指导。训练时,
4、学习新样本有遗忘旧样本的趋势常用改进方法 添加动量项 采用改进的梯度下降法 MBP/MFBP算法深度学习深度学习的基础架构来自于前馈神经网络与BP算法,构造多层节点通过最小化代价函数的方法来提高分类精度。对于传统的ANN网络而言,由于多层网络训练的困难,实际使用的多数是只含有一层隐层节点的浅层模型。然而,不同于浅层的神经网络算法,深度学习更侧重于如何通过增加网络的深度,减小每层拟合的参数来提取出数据(尤其是语音与图像数据)的高层特征信息,从而达到更高的测试性能与分类精度。深度学习通过建立类似于人脑的分层模型结构,对输入数据逐级提取从底层到高层的特征,从而能很好地建立从底层信号到高层语义的映射关
5、系。传统的机器学习方法,在训练数据量到达一定规模后,算法的学习能力就饱和了,而深度学习见不到底。深度学习Any continuous function from input to output can be implemented in a three-layer net,given sufficient number of hidden units and proper nonlinearities in activation function and weights.三层网络,足够多的节点,合适的激活函数与权重可以复现任意函数deep models can give better appr
6、oximation to nonlinear functions than shallow models.深层的模型相较于浅层逼近效果更好深度学习深度学习的实质,是通过构建具有很多隐层的机器学习模型和海量的训练数据,以更少的参数与更深的结构来学习更有用的特征,从而最终提升分类或预测的准确性。所以,“深度模型”是手段,“特征学习”是目的。区别于传统的浅层学习,深度学习的不同在于:)强调了模型结构的深度,通常有5层、6层、甚至10多层的隐层节点;)明确突出了特征学习的重要性,也就是说,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而分类或预测更加容易。由于含有很多隐层的人工神经
7、网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类,深度学习算法逐渐成为分类算法的一个大的分支。然而深度神经网络在训练上难度很大。为此,可以通过“逐层初始化”(layer-wise pre-train)来有效克服预训练与梯度消失现象由于早层的梯度是由后层的梯度项相乘得到,梯度会逐层衰减。而参数的随机初始化意味着未训练前经过权重、偏置的计算后神经元早层丢失了大量的有用信息,从而导致后层的网络学习率超过前层,BP算法收敛缓慢。当神经网络有很多层时,就会面临不稳定的情况。对网络的预训练可以较好地避免这种现象。这是因为:实验表明,在非凸优化问题上初始点的选择十分重要
8、 无监督学习增加了一个深层结构的鲁棒性 预训练神经网络能够学习到数据的不同的高质量特征 单纯增加一个网络的深度,如果没有预训练进行处理,会提高陷于局部极小点的可能性实验对比当数据进行预处理后,神经网络迭代稳定,分类误差保持在一个较低的水平;而当数据没有进行预处理,随着层数的增加分类误差迅速增大,代价函数也保持在一个较高的水平。这是由于预训练提取了图像特征,不容易使得图像限于较高的局部极小点,即更接近于全局的极小点,分类效果要大大优于无预训练的网络。自编码器结构单层自动编码器网络(AutoEncoder)实质上是一个三层的反向传播神经网络。它逐层采用无监督学习的方式,不使用标签调整权值,将输入映
9、射到隐藏层上,再经过反变换映射到输出上,实现输入输出的近似等价。自动编码器的主要思想是利用无监督无监督方式最小化重建误差学习到的权重在分类中提供了一个网络初始化的较好的初始点。无监督学习的主要目的是从无监督的数据集中提取有用的特征,以减少输入信息,保留数据中关键的有效信息。网络通过没有标签的数据学习到潜在的分布信息,有利于它区分有标签的信息。然而,在网络中,权重仍然需要进行微调。因此,需要在神经网络的顶部增加一个线性回归,再对有标签的数据进行处理。网络的微调会采用梯度下降法,对所有层同时进行调整。自编码器的建立建立AutoEncoder的方法是:对于m个数据的输入,有:Code 编码:使用非线
10、性激活函数,将维输入数据映射到维隐含层(隐藏节点表示特征)其中W是一个的权重矩阵,b是一个d维的偏移向量Decode 解码:通过反向映射,对映射后的数据进行重建SAE网络采用相同的权重 ,对数据进行编码与解码。每一次训练输入都会得到映射后的 与解码后的 。通过对代价函数的最优化可以得到训练集上的权重与偏置。节点的稀疏性限制为了模拟人的大脑的识别,增强网络的鲁棒性,避免过拟合的发生,我们需要让少部分中间隐藏神经元的活跃度,也就是输出值大于0,其他的大部分为0(或近似为0),这就是所谓的稀疏性。在人脑中有大量的神经元,但是大多数自然图像通过视觉进入人脑时,只会刺激到少部分神经元,大部分神经元都是出
11、于抑制状态的。而且,大多数自然图像,都可以被表示为少量基本元素(面或者线)的叠加。稀疏性处理能够更加有助于我们用少量的神经元提取出自然图像更加本质的特征。从数学的角度来说,稀疏编码是一种多维数据描述方法,数据经稀疏编码后仅有少数分量同时处于明显激活状态。在实际应用中,稀疏编码有如下几个优点:编码方案存储能力大,具有联想记忆能力,并且计算简便;使自然信号的结构更加清晰;事实上,这一简单的自编码神经网络通常可以学习出一个跟主元分析(PCA)结果非常相似的输入数据的低维表示。16图像实验原始图像隐含层特征 Randomly pick one of the 10 images from mat-fil
12、e,then randomly sample an 88 image patch from the selected image,and convert the image patch into a 64-dimensional vector to get a training example可以看到,AE在图像处理的特征提取中可以作为边缘检测器学习到图像边缘信息Stacked AutoEncoder一个AE模型有1个可视层、1个隐含层1个重建层。通过自下而上的映射,实现编码与反编码重建:激活函数Tied Weight有助于等分模型参数minimizeCOST FUNCTIONupdate梯度
13、下降Stacked AutoEncoderIf the subsequent classifier is implemented as a neural network too,parameters throughout the whole network can be adjusted slightly while we are training the classifier.This step is called fine-tuning.For logistic regression,the training is simply back propagation,searching for
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 深度学习介绍 深度 学习 介绍 PPT 课件
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内