ANN中文学习教程.pptx





《ANN中文学习教程.pptx》由会员分享,可在线阅读,更多相关《ANN中文学习教程.pptx(44页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、典型工作典型工作:Warren McCulloch and Walter Pitts:M-P模型模型Donald Hebb:Hebb learning rule(Hebb学习律学习律)Frank Ronsenblatt:Perceptron(感知器感知器)Bernald Widrow and Ted Hoff:adaptive linear neural networks(自适应线性神经网络自适应线性神经网络),Widrow-Hoff learning rule(Widrow-Hoff学习律学习律).第1页/共44页低谷时期低谷时期(1960-1980)然而然而Rosenblatt和和Widr
2、ow的网络都有同样的局限的网络都有同样的局限性性.这个问题随着下面这本书的出版而广为人知这个问题随着下面这本书的出版而广为人知:M.Minsky and S.Papert,Perceptrons,Cambridge,MA:MIT Press,1969Rosenblatt和和Widow也清楚这些局限也清楚这些局限,他们提出他们提出了新的网络了新的网络.但新网络更复杂但新网络更复杂,针对旧网络提出的针对旧网络提出的学习算法不再适应新网络的训练学习算法不再适应新网络的训练.遗憾的是他们遗憾的是他们没能成功地改进学习算法没能成功地改进学习算法.第2页/共44页许多研究者受到许多研究者受到Minsky和
3、和Papert的影响的影响,相信继续研相信继续研究神经网络是一条死路究神经网络是一条死路.当时没有功能强大的数字计算机来做实验也是制约当时没有功能强大的数字计算机来做实验也是制约神经网络领域研究的一个原因神经网络领域研究的一个原因.这一阶段仍然有一些重要的工作这一阶段仍然有一些重要的工作:1972年年,Teuvo Kohonen和和James Anderson分别独立分别独立地提出了一种可以作为记忆器的新网络地提出了一种可以作为记忆器的新网络.Stephen Grossberg在自组织网络方面的研究也很活在自组织网络方面的研究也很活跃跃.第3页/共44页复兴时期复兴时期(1980以来以来)个人
4、计算机和工作站越来越普及个人计算机和工作站越来越普及,其功能越来越强大其功能越来越强大,.而且提出了一些重要的新概念而且提出了一些重要的新概念.John Hopfield:Hopfield network(1982)David Rumelhart和和James McClelland(1986):Backpropagation algorithm(反传算法反传算法,BP算法算法).(还还有其他几位研究者相互独立地发现了该算法有其他几位研究者相互独立地发现了该算法)发表了成千上万的相关论文发表了成千上万的相关论文.第4页/共44页Soft Computing(软计算)Artificial neur
5、al network(人工神经网络)Fuzzy systems(模糊系统)Evolution computing(进化算法)第5页/共44页应用1988年年,DARPF Neural Network study 列出了神列出了神经网络的许多应用经网络的许多应用其中一个成功的商业应用是其中一个成功的商业应用是:1984年年,自适应信道自适应信道均衡器均衡器文献中提到的应用领域包括文献中提到的应用领域包括:航空航空,汽车汽车,银行银行,国防国防,电子电子,娱乐娱乐,金融金融,保险保险,制造制造,医药医药,石油石油,机器人技术机器人技术,通讯通讯,运输等等运输等等第6页/共44页神经元(Neuron
6、)神经元组成神经网络的基本信息处理单元.第7页/共44页n=w1,1p1+w1,2p2+w1,RpR+b,n=Wp+ba=f(n)=f(Wp+b)输入输入:p1,p2,pRp=(p1,p2,pR)T权重权重:w1,1,w1,2,w1,RW=(w1,1,w1,2,w1,R)偏置偏置:b激励函数激励函数:fp*=(1,p1,p2,pR)T,W*=(b,w1,1,w1,2,w1,R)n=W*p*,a=f(n)=f(W*p*)第8页/共44页激励函数函数名输入/输出关系 图标MATLAB 函数Hard Limita=0,n=0hardlimSymmetrical Hard Limita=-1,n=0h
7、ardlimsLineara=npurelinSaturating Lineara=0,n 0a=n,0=n1satlin第9页/共44页函数名输入/输出关系 图标MATLAB 函数Symmetric Saturating Lineara=-1,n -1a=n,-1=n 1satlinsLog-Sigmoid 1 1+e-nlogsigHyoerbolic Tangent Sigmoid en e-n en+e-ntansigPositive Lineara=0,n=0poslinCompetitivea=1,neuron with max na=0,all other neuronscomp
8、eta=a=C第10页/共44页网络结构单层神经元W=w1,1w1,2w1,Rw2,1w2,2w2,RwS,1wS,2wS,Ra=f(Wp+b)b=(b1,b2,bs)Ta=(a1,a2,as)Tf(.)=(f1(.),f2(.),fS(.)T第11页/共44页单层神经元单层神经元第12页/共44页多层神经元第13页/共44页输入层隐层输出层第14页/共44页递归网络延时单元延时单元积分单元积分单元第15页/共44页一种离散时间循环网络一种离散时间循环网络:初始条件初始条件:a(0)=p网络将来的输出由它之前的输出计算网络将来的输出由它之前的输出计算:a(1)=satlins(Wa(0)+b)
9、,a(2)=satlin(Wa(1)+b),第16页/共44页学习律有监督(教师)的学习(Supervised Learning)训练集:p1,t1,p2,t2,pQ.tQReinforcement Learning对网络的每个输入,这种学习算法不提供当前的正确输出,只是给出一个等级.无监督(教师)的学习(Unsupervised Learning)权重和偏置的修改仅与网络的输入有关第17页/共44页多层感知器模式划分模式划分函数逼近函数逼近第18页/共44页Universal Approximation Theorem:设设 ()是有界单调增的连续函数是有界单调增的连续函数,而且而且()不是
10、常数不是常数,则对任则对任意给定的意给定的n-维单位超立方体维单位超立方体0,1n 上的连续函数上的连续函数f,有有:对任意对任意给定的给定的 0,存在整数存在整数m 和实常和实常 数数 i,bi,wij,其中其中i=1,m,j=1,n,使得使得是函数是函数f()的近似的近似,满足满足|F(x1,xn)f(x1,xn)|只要隐层神经元足够过只要隐层神经元足够过,隐层激励函数隐层激励函数sigmoid函函数数,输出层激励函数是线性函数的两层网络实质输出层激励函数是线性函数的两层网络实质上可以逼近任意函数到任意精度上可以逼近任意函数到任意精度.第19页/共44页反传算法反传算法(BP算法算法)训练
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- ANN 中文 学习 教程

限制150内