神经网络学习 之 BP神经网络.docx
《神经网络学习 之 BP神经网络.docx》由会员分享,可在线阅读,更多相关《神经网络学习 之 BP神经网络.docx(11页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、目录第二章BP算法的基本思想 第三章BP网络特性分析第四章BP网络的训练分解5.3第一章概述神经网络是1986年由Rumelhart和McCelland为首的科研小组提出,参见他们发表在Nature上的论文??。6.3 初始权值的选取一般初始权值是取值在(?1,1)之间的随机数。另外威得罗等人在分析了两层网络是如何对一 个函数进行训练后,提出选择初始权值量级为sVr的策略,其中r为输入个数,s为第一层神经 元个数。6.4 学习速率学习速率一般选取为0.01?0.8,大的学习速率可能导致系统的不稳定,但小的学习速率导致 收敛太慢,需要较长的训练时间。对于较复杂的网络,在误差曲面的不同位置可能需要
2、不同的 学习速率,为了减少寻找学习速率的训练次数及时间,比较合适的方法是采用变化的自适应学习 速率,使网络在不同的阶段设置不同大小的学习速率。6.5 期望误差的选取在设计网络的过程中,期望误差值也应当通过对比训练后确定一个合适的值,这个合适的值 是相对于所需要的隐层节点数来确定的。一般情况下,可以同时对两个不同的期望误差值的网 络进行训练,最后通过综合因素来确定其中一个网络。BP网络的局限性BP网络具有以下的几个问题: Q)需要较长的训练时间:这主要是由于学习速率太小所造成的,可采用变化的或自适应 的学习速率来加以改进。 (2)完全不能训练:这主要表现在网络的麻痹上,通常为了避免这种情况的产生
3、,一是选 取较小的初始权值,而是采用较小的学习速率。 (3)局部最小值:这里采用的梯度下降法可能收敛到局部最小值,采用多层网络或较多的 神经元,有可能得到更好的结果。BP网络的改进BP算法改进的主要目标是加快训练速度,避免陷入局部极小值等,常见的改进方法有带动 量因子算法、自适应学习速率、变化的学习速率以及作用函数后缩法等。动量因子法的基本思 想是在反向传播的基础上,在每一个权值的变化上加上一项正比于前次权值变化的值,并根据反 向传播法来产生新的权值变化。而自适应学习速率的方法则是针对一些特定的问题的。改变学 习速率的方法的原则是,若连续几次迭代中,若目标函数对某个权倒数的符号相同,则这个权的
4、 学习速率增加,反之若符号相反则减小它的学习速率。而作用函数后缩法则是将作用函数进行 平移,即加上一个常数。BP神经网络是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用最速下降法,通过反向传播来不断调整网络的权值和 阈值,使网络的误差平方和最小。第二章BP算法的基本思想多层感知器在如何获取隐层的权值的问题上遇到了瓶颈。既然我们无法直接得到隐层的权值, 能否先通过输出层得到输出结果和期望输出的误差来间接调整隐层的权值呢? BP算法就是采用这样的思想设计出来的
5、算法,它的基本思想是,学习过程由信号的正向传播与误差的反向传播两个过程组成。正向传播时,输入样本从输入层传入,经各隐层逐层处理后,传向输出层。若输出层的实际输出与期望的输出(教师信号)不符,则转入误差的反向传播阶段。反向传播时,将输出以某种形式通过隐层向输入层逐层反传,并将误差分摊给各层的所有单元,从而获得各层单元的误差信号,此误差信号即作为修正各单元权值的依据。这两个过程的具体流程会在后文介绍。BP算法的信号流向图如下图所示?隐层HH输出层H f(VTX)第三章忖络嘱性好丽W Aof/6我们分析一个ANN时,通常都是从它的三要素入手,即?1)网络拓扑结构;?72)传递函数;?一3)学习算法。
6、/每一个要素的特性加起来就决定了这个ANN的功能特性。所以,我们也从这三要素入手对BP网络的研究。3.1 BP网络的拓扑结构上一次已经说了,BP网络实际上就是多层感知器,因此它的拓扑结构和多层感知器的拓扑 结构相同。由于单隐层(三层)感知器已经能够解决简单的非线性问题,因此应用最为普遍。三 层感知器的拓扑结构如下图所示。?一个最简单的三层BP:?3. 2 BP网络的传递函数BP网络采用的传递函数是非线性变换函数(又称S函数)。其特点是函数本身及其导 数都是连续的,因而在处理上十分方便。为什么要选择这个函数,等下在介绍BP网络的学习算 法的时候会进行进一步的介绍。?1单极性S型函数曲线如下图所示
7、。?1+ 1双极性S型函数曲线如下图所示。3.3 BP网络的学习算法BP网络的学习算法就是BP算法,又叫8算法(在ANN的学习过程中我们会发现不少具 有多个名称的术语),以三层感知器为例,当网络输出与期望输出不等时,存在输出误差E , 定义如下:后=/一。)2 = :二(八-/)2将以上误差定义式展开至隐层,有? 进一步展开至输入层,有?由上式可以看出,网络输入误差是各层权值3jK、Uij的函数,因此调整权值可改变误差?E。 显然,调整权值的原则是使误差不断减小,因此应使权值与误差的梯度下降成正比,即?:对于一般多层感知器,设共有?h?个隐层,按前向顺序各隐层节点数分别记为?1111,1112
8、,1113各隐层输出分别记为?丫1,丫2,丫11,各层权值矩阵分别记为?W1,W2,.,Wh,Wh+i,则各层权值调整公式为输出层第?h?隐层按以上规律逐层类推,则第一隐层权值调整公式容易看出,BP学习算法中,各层权值调整公式形式上都是一样的,均由3个因素决定,即:1 .学习率?n2 .本层输出的误差信号33 .本层输入信号?Y (或X)其中输入层误差信号与网络的期望输出与实际输出之差有关,直接反应了输出误差,而各隐 层的误差信号与前面各层的误差信号有关,是从输出层开始逐层反传过来的。可以看出BP算法属于b学习规则类,这类算法常被称为误差的梯度下降算法。b学习规则 可以看成是Widrow-Ho
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 神经网络学习 BP神经网络 神经网络 学习 BP
限制150内