基础知识续人工神经网络常用学习规则.ppt
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《基础知识续人工神经网络常用学习规则.ppt》由会员分享,可在线阅读,更多相关《基础知识续人工神经网络常用学习规则.ppt(44页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、人工神经网络常用的学习规则l MP模型是于1943 年由美国心理学家McCulloch 和数学家Pitts 建立的第一个神经元模型,也可以称为处理单元(Processing Element),它是一个多输入多输出的非线性信息处理单元。如图5-6 所示,图5-7 为MP模型的作用函数。MP神经元是人工神经元模型的基础,也是人工神经网络模型的基础。图5-6 MP 神经元模型 01(x)F(x)l 人类具有学习能力,人类的知识和智慧是在不断的学习与实践中逐渐形成和发展起来的。关于人工神经网络的学习机制,涉及到神经元如何分布、处理和存储信息。常用的人工神经网络学习规则如下,图5-8是权值调整的一般情况
2、,其中:Wj 为联接到神经元j 的权值向量,X 为输入向量,r 为学习信号,d 为导师信号。权向量的调整准则为 l 式中 为学习速率。权值调整的迭代格式为 权值调整的一般情况wXr(w,x,d)dj信号生成器OjjwjX1)Hebbian 学习规则l 1949 年,心理学家最早提出了关于神经网络学习机理的“突触修正”的假设。该假设指出,当神经元的突触前膜电位与后膜电位同时为正时,突触传导增强,当前膜电位与后膜电位正负相反时,突触传导减弱,也就是说,当神经元i 与神经元j 同时处于兴奋状态时,两者之间的连接强度应增强。根据该假设定义的权值调整方法,称为Hebbian学习规则。在Hebbian 学
3、习规则中,学习信号简单地等于神经元的输出l 式中 W 为权向量,X 为输入向量。权向量的调整公式为权向量中,每个分量的调整由下式确定l 上式表明,权值调整量与输入输出的乘积成正比。显然,经常出现的输入模式将对权向量有最大的影响。在这种情况下,Hebbian 学习规则需预先设置权饱和值,以防止输入和输出正负始终一致时出现权值无约束增长。此外,要求权值初始化,即在学习开始前(t=0),先对Wj(0)赋予零附近的小随机数。Hebbian 学习规则代表一种纯前馈、无导师学习。该规则至今仍在各种神经网络模型中起着重要作用。2)Perceptron(感知器)学习规则l 1958 年,美国学者Frank R
4、osenblatt 首次定义了一个具有单层计算单元的神经网络结构,称为感知器(Perceptron)。感知器的学习规则规定,学习信号等于神经元期望输出(教师信号)与实际输出之差l 式中 为期望的输出,。感知器采用了与阈值转移函数类似的符号转移函数,其表达为因此,权值调整公式应为l 式中,当实际输出与期望值相同时,权值不需要调整;在有误差存在情况下,由于、,l 权值调整公式简化为l 感器学习规则只适用于二进制神经元,初始权值可取任意值。l 感知器学习规则代表一种有导师学习。由于感知器理论是研究其他神经网络的基础,该规则对于神经网络的有导师学习具有极为重要的意义。l 3)(Delta)学习规则l
5、1986 年,认知心理学家McClelland 和Rumelhart 在神经网络训练中引入了 规则,该规则亦可称为连续感知器学习规则,与上述离散感知器学习规则并行。规则的学习信号规定为l 上式定义的学习信号称为。式中是转移函数的导数。显然,规则要求转移函数可导,因此只适用于有导师学习中定义的连续转移函数,如Sigmoid 函数。l 事实上,规则很容易由输出值与期望值的最小平方误差条件推导出来。定义神经元输出与期望输出之间的平方误差为l 式中,误差E 是权向量Wj 的函数。欲使误差E 最小,Wj 应与误差的负梯度成正比,即l 式中,比例系数 是一个正常数。由式(5-12),误差梯度为l 可以看出
6、,上式中 与X 之间的部分正是式(5-11)中定义的学习信号。Wj 中每个分量的调整由下式计算l 学习规则可推广到多层前馈网络中,权值可初始化为任意值。l 4)Widrow-Hoff 学习规则l 1962 年,Bernard Widrow 和Marcian Hoff提出了Widrow-Hoff 学习规则,又称为最小均方规则(LMS)。Widrow-Hoff 学习规则的学习信号为l 权向量调整量为.l 的各分量为l 实际上,如果在学习规则中假定社会元转移函数为,则有,此时式(5-11)与式(5-17)相同。l 因此,Widrow-Hoff 学习规则可以看成是学习规则的一个特殊情况。该学习规则与神
7、经元采用的转移函数无关,因而不需要对转移函数求导数,不仅学习速度较快,而且具有较高的精度。权值可初始化为任意值。l 5)Correlation(相关)学习规则l 相关学习规则学习信号为l 易得出分别为l 该规则表明,当dj 是xi 的期望输出时,相应的权值增量 ij 与两者的乘积djxi成正比。l 如果Hebbian 学习规则中的转移函数为二进制函数,且有oj=dj,则相 关学习规则可看作Hebbian 规则的一种特殊情况。应当注意的是,Hebbian 学习规则是无导师学习,而相关学习规则是有导师学习。这种学习规则要求将权值初始化为零。l 6)Winner-Take-all(胜者为王)学习规则
8、l Winner-Take-all 学习规则是一种竞争学习规则,用于无导师学习。一般将网络的某一层确定为竞争层,对于一个特定的输入X,竞争层的所有p 个神经元均有输出响应,其中响应值最大的神经元为在竞争中获胜的神经元,即l 只有获胜神经元才有权调整其权向量,调整量为l 式中,是学习常数,一般其值随着学习的进展而减小。由于两个向量的点积越大,表明两者越近似,所以调整获胜神经元权值的结果是使Wm进一步接近当前输入X。显然,当下次出现与X 相像的输入模式时,上次获胜的神经元更容易获胜。在反复的竞争学习过程中,竞争层的各神经元所对应的权向量被逐渐调整为输入样本空间的聚类中心。在有些应用中,以获胜神经元
9、为中心定义一个获胜领域,除获胜神经元调整权值外,领域内的其他神经元也不同程度地调整权值。权值一般被初始化为任意值并进行归一化处理。l 7)Outstar(外星)学习规则l 神经网络中有两类常见节点,分别称为内星节点和外星节点,其特点见图5-8 和5-9。图5-8 中的内星节点总是接受来自四面八方的输入加权信号,因此是信号的汇聚点,对应的权值向量称为内星权向量;图5-9 中的外星节点总是向四面八方发出输出加权信号,因此是信号的发散点,对应的权值向量称为外星权向量。内星学习规则定内星节点的输出响应是输入向量X 和内星权向量Wj 的点积。该点积反映了X 与Wj 的相似程度,其权值按式(5-23)调整
10、。因此Winner-Take-All 学习规则与内星规则一致。l 下面介绍外星学习规则。外星学习规则属于有导师学习,其目的是为了生成一个期望的维输出向量,设对应的外星权向量用Wj 表示,学习规则如下 l 式中,的规定与作用与式(5-23)中的 相同,给出的外星学习规则使节点j 对应的外星权向量向期望输出向量d 靠近。WijWnjW1jjWijWnjW1jj2.4神经网络学习l 人工神经网络是由人工神经元(简称神经元)互联组成的网络,它是从微观结构和功能上对人脑的抽象、简化,是模拟人类智能的一条重要途径,反映了人脑功能的若干基本特征,如并行信息处理、学习、联想、模式分类、记忆等。目前,已发展了几
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基础知识 人工 神经网络 常用 学习 规则
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内