人工神经网络.pptx
《人工神经网络.pptx》由会员分享,可在线阅读,更多相关《人工神经网络.pptx(56页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、会计学1人工神经网络人工神经网络2引引 言言人工神经网络的研究与计算机的研究几乎是同步发展人工神经网络的研究与计算机的研究几乎是同步发展n n19431943年,心理学家年,心理学家McCullochMcCulloch和数学家和数学家PittsPitts合作提出了神经元的数学模型,合作提出了神经元的数学模型,成为人工神经网络研究的开端成为人工神经网络研究的开端n n19491949年,心理学家年,心理学家D.HebbD.Hebb提出神经元之间突触联系强度可变的假设,提出神经元之间突触联系强度可变的假设,并据此提出神经元的学习准则,为神经网络的学习算法奠定了基础并据此提出神经元的学习准则,为神经
2、网络的学习算法奠定了基础n n19581958年,年,Rosenblatt Rosenblatt 提出了感知机模型,首次把神经网络的研究付诸工提出了感知机模型,首次把神经网络的研究付诸工程实践程实践n n19691969年,年,Minsky Minsky 和和Papert Papert 出版出版感知机感知机一书,从数学上深入分析了感一书,从数学上深入分析了感知机的原理,指出其局限性。加之计算机正处于全盛发展时期,早期知机的原理,指出其局限性。加之计算机正处于全盛发展时期,早期的人工智能研究也取得了巨大的成就,掩盖了发展新型计算机模型的的人工智能研究也取得了巨大的成就,掩盖了发展新型计算机模型的
3、迫切性,使人工神经网络的研究陷入低潮迫切性,使人工神经网络的研究陷入低潮第1页/共56页3引引 言言n n19821982年,年,HopfieldHopfield提出的提出的HopfieldHopfield网络模型,为联想记忆和最优化计算提网络模型,为联想记忆和最优化计算提供了一种新途径,大大促进了神经网络的研究供了一种新途径,大大促进了神经网络的研究n n19861986年,年,RumelhartRumelhart等提出了多层感知机的反向传播算法,克服了当初阻等提出了多层感知机的反向传播算法,克服了当初阻碍感知机模型继续发展的重要障碍。碍感知机模型继续发展的重要障碍。n n同时期,由于传统的
4、基于符号处理的人工智能在解决工程问题上遇到了同时期,由于传统的基于符号处理的人工智能在解决工程问题上遇到了许多困难;同时,尽管计算机性能不断提高,但在解决象模式识别、学许多困难;同时,尽管计算机性能不断提高,但在解决象模式识别、学习等对人来说轻而易举的问题时却显得非常困难。促使人们怀疑传统的习等对人来说轻而易举的问题时却显得非常困难。促使人们怀疑传统的Von NeumannVon Neumann机是否能够解决智能问题,也促使人们探索更接近人脑的机是否能够解决智能问题,也促使人们探索更接近人脑的计算模型。于是又形成了对神经网络研究的新热潮。计算模型。于是又形成了对神经网络研究的新热潮。n n九十
5、年代后期,发展趋于平稳。理论进展不大,以多层感知机网络为主,九十年代后期,发展趋于平稳。理论进展不大,以多层感知机网络为主,在很多领域取得了广泛的应用,也逐渐受到了一些批评。在很多领域取得了广泛的应用,也逐渐受到了一些批评。第2页/共56页4神经元模型神经元模型自然神经网络的基本构成与特点自然神经网络的基本构成与特点n n神经元(神经元(neuronneuron)n n细胞体(细胞体(cellcell)n n树突(树突(dendritedendrite)n n轴突(轴突(axonaxon)n n突触(突触(synapsessynapses)第3页/共56页5神经元模型神经元模型n n细胞体:神
6、经细胞本体细胞体:神经细胞本体n n树突:树突:大量分支,接受其它神经元信息大量分支,接受其它神经元信息n n突触:突触:神经元之间连接的特殊部位神经元之间连接的特殊部位n n轴突:轴突:远距离信息传输远距离信息传输第4页/共56页6神经元模型神经元模型特点特点n n多输入、单输出多输入、单输出n n具有非线性输入具有非线性输入/输出特性,激励达到一定强度后才激活输出特性,激励达到一定强度后才激活n n具有可塑性,传递强度可调节具有可塑性,传递强度可调节n n输出响应是各个输入的综合作用的结果,即所有输入的累加输出响应是各个输入的综合作用的结果,即所有输入的累加第5页/共56页7神经元模型神经
7、元模型fx1x2xnw1w2wny第6页/共56页8神经元模型神经元模型数学表达式数学表达式 y y:激活函数、转移函数、输出函数激活函数、转移函数、输出函数 :阈值阈值第7页/共56页9神经元模型神经元模型以矩阵表示第8页/共56页10神经元模型神经元模型激活函数激活函数 符号函数符号函数 线性函数线性函数 SigmoidSigmoid函数函数 x-1y+10第9页/共56页11神经元模型神经元模型神经元网络神经元网络n n神经元的作用:加工、传递信息(电脉冲信号)神经元的作用:加工、传递信息(电脉冲信号)n n神经元网络:大量神经元的复杂连接神经元网络:大量神经元的复杂连接n n通过大量简
8、单单元的广泛、复杂的连接而实现各种智能活动。通过大量简单单元的广泛、复杂的连接而实现各种智能活动。第10页/共56页12前馈运算和分类前馈运算和分类n n一个多层神经元网络由一个输入层、至少一个隐层、和一个输出层组成,各一个多层神经元网络由一个输入层、至少一个隐层、和一个输出层组成,各层之间通过可调节的权值互连层之间通过可调节的权值互连n n输入层各节点与特征向量各分量相对应输入层各节点与特征向量各分量相对应n n输出层与各类别相对应输出层与各类别相对应n n如下图所示如下图所示第11页/共56页13第12页/共56页14前馈运算和分类前馈运算和分类y yj j=f(net=f(netj j)
9、z zk k=f(net=f(netk k)第13页/共56页15前馈运算和分类前馈运算和分类 网络的网络的c c个输出个输出,可以看作是计算了可以看作是计算了c c个判别函数个判别函数 z zk k=g=gk k(x)(x)分类时将输入分类时将输入 x x 归于判别函数最大值所对应的类别。归于判别函数最大值所对应的类别。问题:问题:是否能实现任意复杂的判别函数?是否能实现任意复杂的判别函数?第14页/共56页16前馈运算和分类前馈运算和分类答案:答案:柯尔莫戈洛夫(柯尔莫戈洛夫(KolmogorovKolmogorov)定理:)定理:只要给定足够数量的隐结点、选择适当的非线性函数和权值,则任
10、何从输只要给定足够数量的隐结点、选择适当的非线性函数和权值,则任何从输入到输出的连续函数都可以用一个三层的网络来实现。入到输出的连续函数都可以用一个三层的网络来实现。三个条件三个条件n n隐节点数足够多隐节点数足够多多少合适?多少合适?n n合适的非线性函数合适的非线性函数什么的函数?什么的函数?n n正确的权值正确的权值如何确定?如何确定?第15页/共56页17前馈运算和分类前馈运算和分类激活函数应具备的特性激活函数应具备的特性n n非线性:否则多层网络将不具备非线性分类能力非线性:否则多层网络将不具备非线性分类能力n n饱和性:即存在最大值和最小值,这样可以限定饱和性:即存在最大值和最小值
11、,这样可以限定权值和激活函数的上下边界,使得训练次数有限权值和激活函数的上下边界,使得训练次数有限n n连续性连续性n n单调性:方便但非必要单调性:方便但非必要n n局部线性:当局部线性:当 net net 值值 较小时具有线性特征,使系较小时具有线性特征,使系统能够实现线性模型统能够实现线性模型第16页/共56页18前馈运算和分类前馈运算和分类Sigmoid函数(S型函数)f(x)=1/1+exp(-x)f(x)=f(x)1-f(x)第17页/共56页19前馈运算和分类前馈运算和分类双曲正切双曲正切第18页/共56页20前馈运算和分类前馈运算和分类我们选择我们选择激活函数确定了,然后是如何
12、获取权值激活函数确定了,然后是如何获取权值训练算法。训练算法。第19页/共56页21反向传播算法反向传播算法n n我们的目标是根据训练样本确定合适的权值我们的目标是根据训练样本确定合适的权值n n基本思想是根据误差反复调整权值直至误差满足要求基本思想是根据误差反复调整权值直至误差满足要求n n隐层到输出层的权值可以根据误差调整隐层到输出层的权值可以根据误差调整n n输入层到隐层的权值如何调整?输入层到隐层的权值如何调整?误差如何获得?误差如何获得?误差的反向回传!第20页/共56页22反向传播算法反向传播算法网络的两种操作模式网络的两种操作模式n n前馈前馈n n学习学习第21页/共56页23
13、反向传播算法反向传播算法n n令令 t tk k 为第为第 k k个输出的目标值(或期望值),个输出的目标值(或期望值),k=1,ck=1,c n n令令z zk k为第为第 k k个输出的实际值,个输出的实际值,k=1,ck=1,c n n令令w w 为网络的权值为网络的权值n n定义准则函数定义准则函数第22页/共56页24反向传播算法反向传播算法采用梯度下降法采用梯度下降法n n任取初值任取初值n n沿负梯度方向调整权值,即沿负梯度方向调整权值,即w(m+1)=w(m)+w(m+1)=w(m)+w(m)w(m)第23页/共56页25反向传播算法反向传播算法n n隐层到输出层的权值调整隐层
14、到输出层的权值调整 其中其中 称为敏感度(称为敏感度(sensitivitysensitivity),),反映了误差随反映了误差随 netnetk k 的变化情况的变化情况 第24页/共56页26反向传播算法反向传播算法由于由于 netnetk k=w wk kt t.y y 因此因此所以所以最后得:最后得:w wkj kj=k ky yj j=(t(tk k z zk k)f)f(net(netk k)y)yj j第25页/共56页27反向传播算法反向传播算法n n输入层到隐层的权值调整输入层到隐层的权值调整 第26页/共56页28反向传播算法反向传播算法而而故故 其中其中第27页/共56页
15、29反向传播算法反向传播算法故故第28页/共56页30反向传播算法反向传播算法采用采用SigmoidSigmoid激活函数激活函数有有 第29页/共56页31反向传播算法反向传播算法权值调整公式为权值调整公式为隐层到输出层隐层到输出层 w wkj kj=y yj j k k=y yj j(t(tk k z zk k)f)f(net(netk k)=)=y yj j(t(tk k z zk k)z)zk k(1-z(1-zk k)输入层到隐层输入层到隐层 w(m+1)=w(m)+w(m+1)=w(m)+w(m)w(m)第30页/共56页32反向传播算法反向传播算法第31页/共56页33反向传播算
16、法反向传播算法 Algorithm 1(Stochastic backpropagation)Algorithm 1(Stochastic backpropagation)第32页/共56页34反向传播算法反向传播算法Algorithm 2(Batch backpropagation)Algorithm 2(Batch backpropagation)第33页/共56页35反向传播算法反向传播算法学习曲线n n训练开始时,对训练集误的差通常会很高;随着学习的进展,误差会越来训练开始时,对训练集误的差通常会很高;随着学习的进展,误差会越来越小。训练过程中,误差总体上是下降的,偶尔也会发生波动越小
17、。训练过程中,误差总体上是下降的,偶尔也会发生波动n n最终能够达到的精度取决于训练样本的数量和网络的表达能力等因素最终能够达到的精度取决于训练样本的数量和网络的表达能力等因素n n在独立测试集上的误差通常比训练集上的误差大在独立测试集上的误差通常比训练集上的误差大n n为了决定什么时候停止训练,需要使用验证集为了决定什么时候停止训练,需要使用验证集(Validation set)(Validation set),验证集须独,验证集须独立于训练集和测试集立于训练集和测试集n n停止训练的时机很重要,停止过早,训练误差还很大,会造成停止训练的时机很重要,停止过早,训练误差还很大,会造成“欠学习欠
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工 神经网络
限制150内