模式识别第八章人工神经网络.ppt
《模式识别第八章人工神经网络.ppt》由会员分享,可在线阅读,更多相关《模式识别第八章人工神经网络.ppt(82页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、模式识别第八章人工神经网络1现在学习的是第1页,共82页主要内容n引言n人工神经元n前馈神经网络及其主要算法n竞争学习和侧抑制现在学习的是第2页,共82页8.1 引言n人工神经网络(artificial neural network,ANN):由大量神经元经广泛互联组成的非线性网络(功能模块,数学模型)n人工神经网络是模拟生物神经网络的工作机理、模仿人脑某些学习功能的一种计算结构。n自底向上的综合方法:基本单元功能模块系统现在学习的是第3页,共82页神经网络发展简介n第一阶段:开创n40年代初,美国McCulloch和Pitts从信息处理的角度,研究神经细胞行为的数学模型表达,提出了二值神经元
2、模型。MP模型的提出开始了对神经网络的研究进程。n1949年心理学家Hebb提出著名的Hebb学习规则,即由神经元之间结合强度的改变来实现神经学习的方法。n1957年,F.Rosenblatt提出感知器。n1960年Bernand Widrow和 Marcian Hoff提出自适应线性元件网络。现在学习的是第4页,共82页神经网络发展简介n第二阶段:低潮n1969年M.Minsky和S.Parpert对感知器的悲观理论使神经网络研究陷入低谷。他们分析了若干种简单感知器,并总结说明:简单感知器只能完成线性分类,对非线性分类无能为力,加上他们在人工智能领域的威望,他们这种悲观理论对当时人工神经网络
3、的发展来说负面影响很大;而另一方面,当时计算机技术的发展使得传统人工智能理论在基于Von Neumann计算机平台上的发展趋势非常乐观;同时人们对当时人工神经网络的训练没有得到一种普适的学习算法;这样,人工神经网络的发展转入缓慢发展的低潮期。现在学习的是第5页,共82页神经网络发展简介n第三阶段:复苏n1982年生物物理学家J.J.Hopfield提出Hopfield网络模型,并将其成功应用于NP完全性的著名旅行商问题。n1986年David E.和Rumelhart等的并行分布式处理(PDP)研究组完善了多层神经网络感知误差反向传播算法Error Back Propagation(简称BP算
4、法,最早由Werbo于1974年提出),特别是有效解决了网络权值在学习过程中自动调整的问题,人工神经网络的发展再次掀起研究高潮;n1987年6月21日在美国圣地亚哥召开了第一届国际人工神经网络学术会议,宣告国际神经网络协会成立。现在学习的是第6页,共82页神经网络的特点n自学习n自适应n并行处理n分布表达与计算现在学习的是第7页,共82页神经网络的应用nNN本质上可以理解为函数逼近,可以应用到众多领域:n优化计算n信号处理n智能控制n模式识别n机器视觉等现在学习的是第8页,共82页8.2 人工神经元n生物神经网络:Biological Neural Network(BNN)n神经元:neuro
5、nn神经元经突触传递信号给其他神经元(胞体或树突)n1011个神经元/人脑n104个连接/神经元n神经元基本工作机制:n状态:兴奋与抑制n互联,激励,处理,阈值信息加工信息输出信息输入信息传递现在学习的是第9页,共82页nMP模型 MP模型属于一种阈值元件模型,是由美国McCulloch和Pitts提出的最早神经元模型之一。MP模型是大多数神经网络模型的基础。8.2 人工神经元现在学习的是第10页,共82页ynetA阈值函数(b)ynetSigmoid函数函数(c)fyw1w2wnx1x2xnnet(a)其中:f 是一个非线性函数,例如阈值函数或Sigmoid函数。神经元动作如下:niiiin
6、iixtwftynetfyxwnet11神经元模型现在学习的是第11页,共82页 当当 f 为阈值时,其输出为:为阈值时,其输出为:niiiAxwy1sgn其中其中 sgn 为符号函数,若为符号函数,若 )0()0(11)sgn()(xxxxf ),见图(,见图(,则则)()(或或两个值。两个值。和和取取,则则byxxxfyy100001)(1111 当某些重要的学习算法要求输出函数当某些重要的学习算法要求输出函数 f 可微,通常选用可微,通常选用Sigmoid函数:函数:ynetA(b)现在学习的是第12页,共82页112)()(2 xexthxfa、则则 y (1,1),即),即1到到1的
7、开区间内的连续值。的开区间内的连续值。或或 b、xexf 11)()(或或 xe11ynet(c)则则 y (0,1),见图(),见图(c)。)。选择选择 Sigmoid 函数作为输出函数,具有特性:函数作为输出函数,具有特性:非线性、单调性。非线性、单调性。无限可微。无限可微。当权值很大时近似阈值函数。当权值很小时近似线性函数当权值很大时近似阈值函数。当权值很小时近似线性函数现在学习的是第13页,共82页8.3 神经网络的学习方法n神经网络的学习:从环境中获取知识并改进自身性能,主要指调节网络参数使网络达到某种度量,又称为网络的训练n学习方式:n监督学习n非监督学习n再励学习n学习规则(le
8、arning rule):nHebb学习算法n误差纠正学习算法n竞争学习算法现在学习的是第14页,共82页监督学习教师神经网络比较环境实际输出输入期望输出误差信号n对训练样本集中的每一组输入能提供一组目标输出n网络根据目标输出与实际输出的误差信号来调节网络参数x(n)t(n)y(n)e(n)现在学习的是第15页,共82页非监督学习与再励学习n非监督学习:不存在教师,网络根据外部数据的统计规律来调节系统参数,以使网络输出能反映数据的某种特性n再励学习:外部环境对网络输出只给出评价信息而非正确答案,网络通过强化受奖励的动作来改善自身的性能神经网络环境输入神经网络环境输入输出评价信息现在学习的是第1
9、6页,共82页nHebb规则假定:当两个细胞同时兴奋时,他们之间的连接强度应该增强。这条规则与“条件反射”学说一致,后来得到了神经细胞学说的证实。n几乎所有的神经网络学习算法可看成Hebb学习规则的变形。nHebb学习规则:Hebb学习(1)()iinniiiwyxwww 学习常数现在学习的是第17页,共82页误差纠正学习n对于输出层第k个神经元:n实际输出:ak(n)n目标输出:tk(n)n误差信号:ek(n)=tk(n)-ak(n)n目标函数:基于误差信号ek(n)的函数,如误差平方和判据(sum squared error,SSE),或均方误差判据(mean squared error,
10、MSE,即SSE对所有样本的期望)211()()()22TkkJEenEnnee211()()()()22TkkJnennnee现在学习的是第18页,共82页误差纠正学习n梯度下降法:kJ wn对于感知器和线性网络:TWepkjkjwepdelta学习规则n对于多层感知器网络:扩展的delta学习规则,BP算法现在学习的是第19页,共82页竞争学习n无监督学习方法n输出神经元之间有侧向抑制性连接,较强单元获胜并抑制其他单元,独处激活状态(Winner takes all,WTA)()0kjjkjkjwpwkwk若 神 经 元获 胜若 神 经 元失 败wkjkpj现在学习的是第20页,共82页竞
11、争学习原理竞争学习规则竞争学习规则Winner-Take-All(胜者为王胜者为王)网络的输出神经元之间相互竞争以求被激活,网络的输出神经元之间相互竞争以求被激活,结果在每一时刻只有一个输出神经元被激活。这个结果在每一时刻只有一个输出神经元被激活。这个被激活的神经元称为竞争获胜神经元,而其它神经被激活的神经元称为竞争获胜神经元,而其它神经元的状态被抑制,故称为元的状态被抑制,故称为Winner Take All。现在学习的是第21页,共82页竞争学习规则竞争学习规则Winner-Take-All1.1.向量归一化向量归一化 首先将当前输入模式向量首先将当前输入模式向量X X和竞和竞争层中各神经
12、元对应的内星向量争层中各神经元对应的内星向量W Wj j 全部进行全部进行归一化处理;归一化处理;(j=1,2,m)(j=1,2,m)Tnjjnnjjxxxx12121.XXX现在学习的是第22页,共82页向量归一化之向量归一化之 *现在学习的是第23页,共82页向量归一化之向量归一化之 *现在学习的是第24页,共82页竞争学习原理竞争学习规则竞争学习规则Winner-Take-All2.2.寻找获胜神经元寻找获胜神经元 当网络得到一个输入模式向量时,竞当网络得到一个输入模式向量时,竞争层的所有神经元对应的内星权向量均与其进行相似性比争层的所有神经元对应的内星权向量均与其进行相似性比较,并将最
13、相似的内星权向量判为竞争获胜神经元。较,并将最相似的内星权向量判为竞争获胜神经元。欲使两单位向量最相似,须使其点积最大。即:欲使两单位向量最相似,须使其点积最大。即:)(max,.,2,1*XWXWTjmjTj现在学习的是第25页,共82页 从上式可以看出,欲使两单位向量的欧式距离最小,从上式可以看出,欲使两单位向量的欧式距离最小,须使两向量的点积最大。即:须使两向量的点积最大。即:)(max,.,2,1*XWXWTjmjTjjmjjWXWXmin,.,2,1*)()(*jTjjWXWXWXTjTjTjT*2WWXWXX)1(2*XWTj竞争学习规则竞争学习规则Winner-Take-All现
14、在学习的是第26页,共82页竞争学习规则竞争学习规则胜者为王胜者为王(Winner-Take-All)3.3.网络输出与权值调整网络输出与权值调整*01)1(jjjjtoj)()()()()1(*jjjjjttttWXWWWW)()1(ttjjWW j j j j*步骤步骤3 3完成后回到步骤完成后回到步骤1 1继续训练,直到学习率衰减继续训练,直到学习率衰减到到0 0。现在学习的是第27页,共82页 *竞争学习的几何意义竞争学习的几何意义现在学习的是第28页,共82页竞争学习的几何意义竞争学习的几何意义 *1W *jW *)()()()(*ttttjpWXW *)(*1tjW )(tpX j
15、W mW *现在学习的是第29页,共82页例例4.1 4.1 用竞争学习算法将下列各模式分为用竞争学习算法将下列各模式分为2 2类:类:6.08.01X9848.01736.02X707.0707.03X9397.0342.04X8.06.05X解:为作图方便,将上述模式转换成极坐标形式解:为作图方便,将上述模式转换成极坐标形式 :89.3611X8012X5.4413X7014X13.5315X竞争层设两个权向量,随机初始化为单位向量:竞争层设两个权向量,随机初始化为单位向量:0101)0(1W180101)0(2WO1O2W1=(w11,w12)W2=(w21,w22)x1x2现在学习的是
16、第30页,共82页 x5 x3 x1 w2 w1 x2 x4 训训 练练 次次 数数 W W1 1 W W2 2 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8.4 43 3 -3 30 0.8 8 7 7 -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0.5 5 4 40 0.5 5 4 43 3 4 43 3 4 47 7.5 5 4 4
17、2 2 4 42 2 4 43 3.5 5 4 43 3.5 5 4 48 8.5 5 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 13 30 0 -1 13 30 0 -1 10 00 0 -1 10 00 0 -1 10 00 0 -9 90 0 -9 90 0 -8 81 1 -8 81 1 -8 81 1 -8 80 0.5 5 -8 80 0.5 5 -7 75 5 -7 75 5 现在学习的是第31页,共82页 x5 x3 x1 w2 x2 x4 w1 训训 练练 次次 数数 W W1 1
18、 W W2 2 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8.4 43 3 -3 30 0.8 8 7 7 -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0.5 5 4 40 0.5 5 4 43 3 4 43 3 4 47 7.5 5 4 42 2 4 42 2 4 43 3.5 5 4 43 3.5 5 4 48 8.5 5 -1 18
19、 80 0 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 13 30 0 -1 13 30 0 -1 10 00 0 -1 10 00 0 -1 10 00 0 -9 90 0 -9 90 0 -8 81 1 -8 81 1 -8 81 1 -8 80 0.5 5 -8 80 0.5 5 -7 75 5 -7 75 5 现在学习的是第32页,共82页 x5 x3 x1 w2 x2 x4 w1 训训 练练 次次 数数 W W1 1 W W2 2 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8 9 9 1 10
20、0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8.4 43 3 -3 30 0.8 8 7 7 -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0.5 5 4 40 0.5 5 4 43 3 4 43 3 4 47 7.5 5 4 42 2 4 42 2 4 43 3.5 5 4 43 3.5 5 4 48 8.5 5 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 18 80 0
21、 -1 18 80 0 -1 13 30 0 -1 13 30 0 -1 10 00 0 -1 10 00 0 -1 10 00 0 -9 90 0 -9 90 0 -8 81 1 -8 81 1 -8 81 1 -8 80 0.5 5 -8 80 0.5 5 -7 75 5 -7 75 5 现在学习的是第33页,共82页 x5 x3 x1 w2 x2 x4 w1 训训 练练 次次 数数 W W1 1 W W2 2 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17
22、7 1 18 8 1 19 9 2 20 0 1 18 8.4 43 3 -3 30 0.8 8 7 7 -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0.5 5 4 40 0.5 5 4 43 3 4 43 3 4 47 7.5 5 4 42 2 4 42 2 4 43 3.5 5 4 43 3.5 5 4 48 8.5 5 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 13 30 0 -1 13 30 0 -1 10 00 0 -1 1
23、0 00 0 -1 10 00 0 -9 90 0 -9 90 0 -8 81 1 -8 81 1 -8 81 1 -8 80 0.5 5 -8 80 0.5 5 -7 75 5 -7 75 5 现在学习的是第34页,共82页 x5 x3 x1 w2 x2 x4 w1 训训 练练 次次 数数 W W1 1 W W2 2 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8.4 43 3 -3 30 0.8 8
24、7 7 -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4 44 4 4 40 0.5 5 4 40 0.5 5 4 43 3 4 43 3 4 47 7.5 5 4 42 2 4 42 2 4 43 3.5 5 4 43 3.5 5 4 48 8.5 5 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 18 80 0 -1 13 30 0 -1 13 30 0 -1 10 00 0 -1 10 00 0 -1 10 00 0 -9 90 0 -9 90 0 -8 81 1 -8 81 1
25、 -8 81 1 -8 80 0.5 5 -8 80 0.5 5 -7 75 5 -7 75 5 现在学习的是第35页,共82页 x5 x3 x1 w2 x2 x4 w1 训训 练练 次次 数数 W W1 1 W W2 2 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8 9 9 1 10 0 1 11 1 1 12 2 1 13 3 1 14 4 1 15 5 1 16 6 1 17 7 1 18 8 1 19 9 2 20 0 1 18 8.4 43 3 -3 30 0.8 8 7 7 -3 32 2 1 11 1 2 24 4 2 24 4 3 34 4 3 34 4 4
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 模式识别 第八 人工 神经网络
限制150内