欢迎来到淘文阁 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
淘文阁 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    人工神经网络基础知识讲稿.ppt

    • 资源ID:46591080       资源大小:3.98MB        全文页数:63页
    • 资源格式: PPT        下载积分:15金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要15金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    人工神经网络基础知识讲稿.ppt

    人工神经网络基础知识第一页,讲稿共六十三页哦2 人工神经网络基础知识人工神经网络基础知识 2.1人工神经网络的生物学基础人工神经网络的生物学基础 人的智能来自于大脑,大脑是由大量的人的智能来自于大脑,大脑是由大量的神经细胞或神经元神经细胞或神经元组成的。组成的。每个神经元可以看作为一个小的每个神经元可以看作为一个小的处理单元处理单元,这些神经元按照某种方式,这些神经元按照某种方式互互相连接相连接起来,构成了大脑内部的起来,构成了大脑内部的生物神经元网络生物神经元网络,他们中各神经元之他们中各神经元之间连接的强弱,按照外部的激励信号作自适应变化,而每个神经元又间连接的强弱,按照外部的激励信号作自适应变化,而每个神经元又随着接收到的多个激励信号的综合大小呈现兴奋或抑制状态。随着接收到的多个激励信号的综合大小呈现兴奋或抑制状态。据现在的据现在的了解,了解,大脑的学习过程就是神经元之间连接强度随外部激励信息做大脑的学习过程就是神经元之间连接强度随外部激励信息做自适应变化的过程,大脑处理信息的结果确由神经元的状态表现出自适应变化的过程,大脑处理信息的结果确由神经元的状态表现出来。来。显然,神经元是信息处理系统的最小单元。虽然神经元的类显然,神经元是信息处理系统的最小单元。虽然神经元的类型有很多种,但其基本结构相似。型有很多种,但其基本结构相似。第二页,讲稿共六十三页哦神经元是大脑处理信息的基本单元神经元是大脑处理信息的基本单元人脑约由人脑约由101l-1012个神经元组成,其中,每个神经元约与个神经元组成,其中,每个神经元约与104-105个神经元通过突触联接,形成极为错纵复杂而且又灵个神经元通过突触联接,形成极为错纵复杂而且又灵活多变的神经网络活多变的神经网络神经元以细胞体为主体,由许多向周围延伸的不规则树枝状神经元以细胞体为主体,由许多向周围延伸的不规则树枝状纤维构成的神经细胞,其形状很像一棵枯树的枝干纤维构成的神经细胞,其形状很像一棵枯树的枝干主要由细胞体、树突、轴突和突触主要由细胞体、树突、轴突和突触(Synapse,又称神经键,又称神经键)组成组成 一、生物神经元一、生物神经元第三页,讲稿共六十三页哦 生物神经元网络结构生物神经元网络结构 树突是树状的神经纤维接收网络,它将电信号传送到细胞体树突是树状的神经纤维接收网络,它将电信号传送到细胞体细胞体对这些输入信号进行整合并进行阈值处理细胞体对这些输入信号进行整合并进行阈值处理轴突是单根长纤维,它把细胞体的输出信号导向其他神经元轴突是单根长纤维,它把细胞体的输出信号导向其他神经元一个神经细胞的轴突和另一个神经细胞树突的结合点称为突触一个神经细胞的轴突和另一个神经细胞树突的结合点称为突触 神经元的排列和突触的强度神经元的排列和突触的强度(由复杂的化学过程决定由复杂的化学过程决定)确立了神经网络的功能。确立了神经网络的功能。第四页,讲稿共六十三页哦生物学研究表明一些神经结构是与生俱来的,而其他部分则是在学生物学研究表明一些神经结构是与生俱来的,而其他部分则是在学习的过程中形成的。习的过程中形成的。在学习的过程中,可能会产生一些新的连接,也可能会使以在学习的过程中,可能会产生一些新的连接,也可能会使以前的一些连接消失。这个过程在生命早期最为显著。前的一些连接消失。这个过程在生命早期最为显著。第五页,讲稿共六十三页哦二、突触的信息处理二、突触的信息处理生物神经元传递信息的过程为多输入、单输出;生物神经元传递信息的过程为多输入、单输出;神经元各组成部分的功能来看,信息的处理与传递主要发神经元各组成部分的功能来看,信息的处理与传递主要发生在突触附近;生在突触附近;当神经元细胞体通过轴突传到突触前膜的脉冲幅度达到一定强度,当神经元细胞体通过轴突传到突触前膜的脉冲幅度达到一定强度,即超过其阈值电位后,突触前膜将向突触间隙释放神经传递的化学即超过其阈值电位后,突触前膜将向突触间隙释放神经传递的化学物质;物质;突触有两种类型,兴奋性突触和抑制性突触。前者产生正突触突触有两种类型,兴奋性突触和抑制性突触。前者产生正突触后电位,后者产生负突触后电位。后电位,后者产生负突触后电位。抑制性抑制性-神经元虽然接收神经元虽然接收到其他神经元传递的信息,但没有向外传递信息,该神经到其他神经元传递的信息,但没有向外传递信息,该神经元称元称“抑制性抑制性”的;的;兴奋性兴奋性-当一个神经元的树突接收的当一个神经元的树突接收的兴奋信息累计超过阈值,该神经元被激活并传递出信息给兴奋信息累计超过阈值,该神经元被激活并传递出信息给其他神经元。其他神经元。第六页,讲稿共六十三页哦三、信息传递功能与特点三、信息传递功能与特点 具有时空整合能力具有时空整合能力时间整合时间整合各输入脉冲抵达神经元的先后时间不同,一个脉冲引起的突触后电位很小,但各输入脉冲抵达神经元的先后时间不同,一个脉冲引起的突触后电位很小,但随着时间延续,另有脉冲到达,总的突触后电位就增大。随着时间延续,另有脉冲到达,总的突触后电位就增大。空间整合空间整合在同一时刻产生的刺激所引起的膜电位变化,大致等于各单独刺激引起的膜电位变在同一时刻产生的刺激所引起的膜电位变化,大致等于各单独刺激引起的膜电位变化的代数和。这种累加求和称空间整合。化的代数和。这种累加求和称空间整合。不可逆性,脉冲只从突触前传到突触后,不逆向传递不可逆性,脉冲只从突触前传到突触后,不逆向传递 神经纤维传导的速度,即脉冲沿神经纤维传递的速度,在神经纤维传导的速度,即脉冲沿神经纤维传递的速度,在1 1150m150ms s之间之间 信息传递时延和不应期,一般为信息传递时延和不应期,一般为0.30.3lmslms可塑性,突触传递信息的强度是可变的,即具有学习功能可塑性,突触传递信息的强度是可变的,即具有学习功能 存在学习、遗忘或疲劳(饱和)效应存在学习、遗忘或疲劳(饱和)效应对应突触传递作用增强、减弱和饱和对应突触传递作用增强、减弱和饱和第七页,讲稿共六十三页哦2、生物神经系统的六个基本特征:、生物神经系统的六个基本特征:1)神经元及其联接;)神经元及其联接;2)神经元之间的联接强度决定信号传递的强弱;)神经元之间的联接强度决定信号传递的强弱;3)神经元之间的联接强度是可以随训练改变的;)神经元之间的联接强度是可以随训练改变的;4)信号可以是起刺激作用的,也可以是起抑制作用的;)信号可以是起刺激作用的,也可以是起抑制作用的;5)一个神经元接受的信号的累积效果决定该神经元的状态;)一个神经元接受的信号的累积效果决定该神经元的状态;6)每个神经元可以有一个每个神经元可以有一个“阈值阈值”。第八页,讲稿共六十三页哦2.人工神经元模型人工神经元模型人工神经网络是在现代神经生物学研究基础上提出的模拟生物过程人工神经网络是在现代神经生物学研究基础上提出的模拟生物过程以反映人脑某些特性的计算结构。它不是人脑神经系统的真实描写,而以反映人脑某些特性的计算结构。它不是人脑神经系统的真实描写,而只是它的某种抽象、简化和模拟。根据前面对生物神经网络的研究可知,只是它的某种抽象、简化和模拟。根据前面对生物神经网络的研究可知,神经元及其突触是神经网络的基本器件神经元及其突触是神经网络的基本器件。因此,。因此,模拟生物神经网络应模拟生物神经网络应首先模拟生物神经元首先模拟生物神经元。在人工神经网络中,神经元常被称为在人工神经网络中,神经元常被称为“处理单元处理单元”。有时从。有时从网络的观点出发常把它称为网络的观点出发常把它称为“节点节点”。人工神经元是对生物神经元人工神经元是对生物神经元的一种形式化描述,的一种形式化描述,它对生物神经元的信息处理过程进行抽象,并用它对生物神经元的信息处理过程进行抽象,并用数学语言予以描述;对生物神经元的结构和功能进行模拟,并用模型数学语言予以描述;对生物神经元的结构和功能进行模拟,并用模型图予以表达。图予以表达。第九页,讲稿共六十三页哦目前人们提出的神经元模型已有很多,其中最早提出且影响最大目前人们提出的神经元模型已有很多,其中最早提出且影响最大的,是的,是1943年年心理学家心理学家McCulloch和数学家和数学家WPitts在分析总结在分析总结神经元基本特性的基础上首先提出的神经元基本特性的基础上首先提出的MP模型模型。该模型经过不断。该模型经过不断改进后,形成目前广泛应用的形式神经元模型。改进后,形成目前广泛应用的形式神经元模型。关于神经元的信息处理机制,该模型在简化的基础上提出以下关于神经元的信息处理机制,该模型在简化的基础上提出以下6点点约定进行描述:约定进行描述:(1)每个神经元都是一个多输入单输出的信息处理单元;)每个神经元都是一个多输入单输出的信息处理单元;(2)突触分兴奋性和抑制性两种类型;)突触分兴奋性和抑制性两种类型;(3)神经元具有空间整合特性和阈值特性;)神经元具有空间整合特性和阈值特性;(4)神经元输入输出间有固定的时滞,主要取决于突触延搁;)神经元输入输出间有固定的时滞,主要取决于突触延搁;(5)忽略时间整合作用和不应期;)忽略时间整合作用和不应期;(6)神经元本身是非时变的,即其突触时延和突触强度均为常数。)神经元本身是非时变的,即其突触时延和突触强度均为常数。第十页,讲稿共六十三页哦MP模型:模型:称为作用函数或激发函数称为作用函数或激发函数第十一页,讲稿共六十三页哦 MP模型模型n 作用函数作用函数n 求和操作求和操作第十二页,讲稿共六十三页哦 MP模型模型 f(x)是作用函数是作用函数(Activation Function),也称激发函数。,也称激发函数。MP神神经元模型中的作用函数为单位阶跃函数:经元模型中的作用函数为单位阶跃函数:其表达式为:其表达式为:第十三页,讲稿共六十三页哦激发函数的基本作用激发函数的基本作用控制输入对输出的激活作用控制输入对输出的激活作用对输入、输出进行函数转换对输入、输出进行函数转换将可能无限域的输入变换成指定的有限范围内的输出将可能无限域的输入变换成指定的有限范围内的输出 可知当神经元可知当神经元i i的输入信号加权和超过阈值时,输出为的输入信号加权和超过阈值时,输出为“1 1”,即即“兴奋兴奋”状态;反之输出为状态;反之输出为“0 0”,是,是“抑制抑制”状态。状态。MP模型模型第十四页,讲稿共六十三页哦例例、实现逻辑函数“与门”(AND gate)运算。1 真,0假第十五页,讲稿共六十三页哦第十六页,讲稿共六十三页哦人工神经元的数学模型描述人工神经元的数学模型描述:第第j个神经元,接受多个其它神经元个神经元,接受多个其它神经元i在在t时刻的输入时刻的输入xi(t),引起神经元,引起神经元j的信息输出为的信息输出为yj(t):式中式中 wij神经元神经元i到到j的突触连接系数,即加权值;的突触连接系数,即加权值;j神经元神经元j的阈值;的阈值;ij输入、输出间的突触时延;输入、输出间的突触时延;f()神经元转移(激活)函数神经元转移(激活)函数.为简单起见,将上式中的突触时延取为单位时间,则为简单起见,将上式中的突触时延取为单位时间,则 式中式中 netjj单元激活值;单元激活值;netj=第十七页,讲稿共六十三页哦其它各单元对第其它各单元对第j个单元的输入,通过加权,按某种运算把输入信号个单元的输入,通过加权,按某种运算把输入信号的综合作用整合起来,给出它们的总效果称净输入。净输入整合表的综合作用整合起来,给出它们的总效果称净输入。净输入整合表达应有多种方式,人们探索到的人脑空间整合方式近似为线性求和。达应有多种方式,人们探索到的人脑空间整合方式近似为线性求和。即单元净输入表为即单元净输入表为 为简便起见,省去式中(为简便起见,省去式中(t),而且常用向量表示而且常用向量表示 式中式中 均为列向量:均为列向量:若令若令 第十八页,讲稿共六十三页哦至此,人工神经元数学模型可简化为至此,人工神经元数学模型可简化为看到,人工神经元模型较全面表现了前述点约定:看到,人工神经元模型较全面表现了前述点约定:()单输入多输出(显见);()单输入多输出(显见);()用突触的正负体现突触的()用突触的正负体现突触的“兴奋与抑制兴奋与抑制;()净输入关系()净输入关系net和阈值和阈值,表现了空间整合特性和阈值特性;,表现了空间整合特性和阈值特性;()()y(t+1)y(t+1)与与x(t)x(t)之间的单位时差表现了之间的单位时差表现了”突触延搁突触延搁“;()没有考虑时间整合和不应期;()没有考虑时间整合和不应期;()权系数与时间无关,体现了神经元的()权系数与时间无关,体现了神经元的”非时变非时变“。第十九页,讲稿共六十三页哦2.3人工神经元人工神经元转转移函数移函数 神经元的各种不同数学模型的主要区别在于采用了不同的转移函数,神经元的各种不同数学模型的主要区别在于采用了不同的转移函数,从而使神经元具有不同的信息处理特性。而神经元的信息处理特性、从而使神经元具有不同的信息处理特性。而神经元的信息处理特性、网络拓补结构和网络学习方式是决定人工神经网络整体性能的三大要网络拓补结构和网络学习方式是决定人工神经网络整体性能的三大要素素,因此转移函数的研究具有重要意义。神经元的转移函数反映了神经元因此转移函数的研究具有重要意义。神经元的转移函数反映了神经元输出与其激活状态之间的关系,目前提出了多种,最常用的转移函数有以输出与其激活状态之间的关系,目前提出了多种,最常用的转移函数有以下几种形式。下几种形式。1 阈值型转移函数阈值型转移函数 阈值型转移函数采用阈值型转移函数采用单位单位阶跃函数阶跃函数,也称硬限幅函,也称硬限幅函数,用下式定义数,用下式定义:第二十页,讲稿共六十三页哦具有这一作用方式的神经元称为阈值型神经元,这是神经元模型中最简单具有这一作用方式的神经元称为阈值型神经元,这是神经元模型中最简单的一种,经典的的一种,经典的MP模型就属于此类。模型就属于此类。硬限幅函数也可采用硬限幅函数也可采用符号函数符号函数,如图,用下式定义,如图,用下式定义第二十一页,讲稿共六十三页哦2 非线性转移函数非线性转移函数常用的是常用的是单极性单极性sigmoid函数函数,简称,简称S函数,函数本身及其导数都函数,函数本身及其导数都连续,处理上十分方便,变化范围是连续,处理上十分方便,变化范围是01,如图所示,如图所示,用下式定义用下式定义第二十二页,讲稿共六十三页哦有时也采用双极性有时也采用双极性S型函数(型函数(双曲正切函数双曲正切函数tanh(x)),其变化范围是其变化范围是-11,如图所示。其表达式为,如图所示。其表达式为第二十三页,讲稿共六十三页哦3、线性函数、线性函数(1 1)线性作用函数:输出等于输入,即)线性作用函数:输出等于输入,即 (2 2)饱和线性作用函数)饱和线性作用函数 (3 3)对称饱和线性作用函数)对称饱和线性作用函数 第二十四页,讲稿共六十三页哦4 概率型转移函数概率型转移函数 采用概率型转移函数的神经元模型其输入与输出之间的关系采用概率型转移函数的神经元模型其输入与输出之间的关系是不确定的,需要用一个随机函数来描述输出状态的概率。是不确定的,需要用一个随机函数来描述输出状态的概率。如,设神经元输出为如,设神经元输出为1的概率为的概率为式中式中 T称温度参数。采用这种转移函数的神经元输出状态分布的称温度参数。采用这种转移函数的神经元输出状态分布的典型代表是典型代表是Boltzmann 机。机。第二十五页,讲稿共六十三页哦5、高斯函数、高斯函数 反映出高斯函数的宽度反映出高斯函数的宽度 还有许多转移函数的数学模型,不一一介绍。还有许多转移函数的数学模型,不一一介绍。第二十六页,讲稿共六十三页哦2.4人工神经网络模型人工神经网络模型 大量神经元组成庞大的神经网络,才能实现对复杂信息的大量神经元组成庞大的神经网络,才能实现对复杂信息的处理与存储,并表现出各种优越的特性。神经网络的强大功能处理与存储,并表现出各种优越的特性。神经网络的强大功能与其大规模并行互连、非线性处理以及互连结构的可塑性密切与其大规模并行互连、非线性处理以及互连结构的可塑性密切相关。因此必须按一定规则将神经元连接成神经网络,并使网相关。因此必须按一定规则将神经元连接成神经网络,并使网络中各神经元的连接权按一定规则变化。生物神经网络由数以络中各神经元的连接权按一定规则变化。生物神经网络由数以亿计的生物神经元连接而成,而人工神经网络限于物理实现的亿计的生物神经元连接而成,而人工神经网络限于物理实现的困难和为了计算简便,是由相对少量的神经元按一定规律构成困难和为了计算简便,是由相对少量的神经元按一定规律构成的网络。的网络。人工神经元网络要显示出人脑的某些的基本特征人工神经元网络要显示出人脑的某些的基本特征:(1)分布存储和容错性分布存储和容错性(2)大规模并行处理大规模并行处理(3)自学习、自组织和自适应自学习、自组织和自适应(4)大量神经元群体行为大量神经元群体行为,表现出复杂非线性系统特性表现出复杂非线性系统特性 第二十七页,讲稿共六十三页哦人们对网络模型做了大量研究人们对网络模型做了大量研究,目前人工神经网络的模型很多,已有目前人工神经网络的模型很多,已有近百种,可以按照不同的方法进行分类。近百种,可以按照不同的方法进行分类。按网络性能可分按网络性能可分-连续性和离散性、确定性和随机性网络连续性和离散性、确定性和随机性网络;按学习方式可分按学习方式可分-有导师和无导师有导师和无导师 学习方式网络。学习方式网络。常见的分类方法常见的分类方法-按网络连接的按网络连接的拓扑结构分类拓扑结构分类和按网络内部和按网络内部 的的信息流向分类信息流向分类。如按网络内部的信息流向分类如按网络内部的信息流向分类:前馈前馈(向向)型网络和反馈型网络型网络和反馈型网络.2.4.1网络拓扑结构类型网络拓扑结构类型 网络拓扑结构的不同表现为神经元之间连接方式的不同。根据网络拓扑结构的不同表现为神经元之间连接方式的不同。根据神经元之间的连接方式,可将神经网络结构分为神经元之间的连接方式,可将神经网络结构分为层次型结构层次型结构和和互连互连型结构型结构两大类。两大类。第二十八页,讲稿共六十三页哦层次型结构层次型结构 层次型结构的神经网络将神经元按功能分成若干层,如输入层、层次型结构的神经网络将神经元按功能分成若干层,如输入层、中间层(也称为隐层)和输出层,各层顺序相连,如图中间层(也称为隐层)和输出层,各层顺序相连,如图 所示。所示。输入层各神经元负责接受来自输入层各神经元负责接受来自外界的输入信息,并传递给中间各外界的输入信息,并传递给中间各隐层神经元;隐层是神经网络的内隐层神经元;隐层是神经网络的内部信息处理层,负责信息变换,根部信息处理层,负责信息变换,根据信息变换能力的需要,隐层可设据信息变换能力的需要,隐层可设计为一层或多层;计为一层或多层;最后一个隐层传递到输出层各神经元的信息经进一步处理后即最后一个隐层传递到输出层各神经元的信息经进一步处理后即完成一次从输入到输出的信息处理,由输出层向外界(如执行机完成一次从输入到输出的信息处理,由输出层向外界(如执行机构或显示设备)输出信息处理结果。构或显示设备)输出信息处理结果。第二十九页,讲稿共六十三页哦层次型网络结构有层次型网络结构有3种典型的结构形式。种典型的结构形式。(1)单纯层次型网络结构)单纯层次型网络结构神经元分层排列,各层神经元接受前一层输入并输出到下一层,神经元分层排列,各层神经元接受前一层输入并输出到下一层,层内神经元自身以及神经元之间不存在连接通路。层内神经元自身以及神经元之间不存在连接通路。单纯层次型网络结构单纯层次型网络结构第三十页,讲稿共六十三页哦(2)层内有互连的层次型网络结构)层内有互连的层次型网络结构这种结构的特点是在同一层内引入神经元间的侧向作用,使得能同时这种结构的特点是在同一层内引入神经元间的侧向作用,使得能同时激活的神经元个数可控,以实现各层神经元的自组织。激活的神经元个数可控,以实现各层神经元的自组织。第三十一页,讲稿共六十三页哦(3)输出层到输入层有连接的层次型网络结构)输出层到输入层有连接的层次型网络结构输出层到输入层有连接路径输出层到输入层有连接路径,其其输入层神经元既可接受输入,也具输入层神经元既可接受输入,也具有信息处理功能有信息处理功能。第三十二页,讲稿共六十三页哦互连型结构互连型结构 对于互连型网络结构,网络中任意两个节点之间都可能存在连接对于互连型网络结构,网络中任意两个节点之间都可能存在连接路径,因此可以根据网络中节点的互连程度将互连型网络结构细分路径,因此可以根据网络中节点的互连程度将互连型网络结构细分为为全互连型网络、局部互连型网络、稀疏连接型网络全互连型网络、局部互连型网络、稀疏连接型网络3种情况。种情况。(1)全互连型网络)全互连型网络每个节点均与所有其他节点连接。每个节点均与所有其他节点连接。第三十三页,讲稿共六十三页哦(2)局部互连型网络)局部互连型网络 (3)稀疏连接型网络)稀疏连接型网络节点只与少数相距较远的节点相连。节点只与少数相距较远的节点相连。每个节点只与其邻近的节每个节点只与其邻近的节点有连接。点有连接。第三十四页,讲稿共六十三页哦2.4.2网络信息流向类型网络信息流向类型 从神经网络内部信息传递方向来分,可分为两种类型:从神经网络内部信息传递方向来分,可分为两种类型:前馈前馈型网络型网络和和反馈型网络反馈型网络。1 前馈型网络前馈型网络 单纯前馈型网络的结构特点前述的分层网络完全相同单纯前馈型网络的结构特点前述的分层网络完全相同,前馈是因网络信息处理的方向是从输入前馈是因网络信息处理的方向是从输入层到各隐层再到输出层逐层进行而得名。层到各隐层再到输出层逐层进行而得名。从信息处理能力看,网络中的节点可从信息处理能力看,网络中的节点可分两种:一种是输入节点,只负责从分两种:一种是输入节点,只负责从外界引入信息后向前传递给第一隐层;外界引入信息后向前传递给第一隐层;另一种是具有处理能力的节点,包括另一种是具有处理能力的节点,包括各隐层和输出层节点。各隐层和输出层节点。前馈型网络中一层的输出是下一层的输人,信息的处理具有逐层传递进行的方前馈型网络中一层的输出是下一层的输人,信息的处理具有逐层传递进行的方向性,一般不存在反馈环路。因此这类网络很容易串联起来建立多层前馈网络。向性,一般不存在反馈环路。因此这类网络很容易串联起来建立多层前馈网络。第三十五页,讲稿共六十三页哦前馈前馈(向向)网络特点网络特点:(1)层次关系清楚层次关系清楚每个神经元只与前一层神经元相连每个神经元只与前一层神经元相连;隐层可多层隐层可多层.(2)反馈关系反馈关系基本前馈网络无反馈关系基本前馈网络无反馈关系;隐层自身互联隐层自身互联,形成同层神经元之间横向抑制机制形成同层神经元之间横向抑制机制,大多自组织竞争大多自组织竞争型网络都采用此种型网络都采用此种;输出到输入层有反馈输出到输入层有反馈.对复杂图形的顺序选择和识别字符需要此类对复杂图形的顺序选择和识别字符需要此类网络网络;(3)属有导师学习型网络属有导师学习型网络(输出值输出值-教师信号教师信号-误差误差-实现权值自适应实现权值自适应)(4)属于非线性映射网络属于非线性映射网络第三十六页,讲稿共六十三页哦当提到具有单层计算神经元的网络时,指的应是一个两层前馈网当提到具有单层计算神经元的网络时,指的应是一个两层前馈网络(输入层和输出层),当提到具有单隐层的网络时,指的应是络(输入层和输出层),当提到具有单隐层的网络时,指的应是一个三层前馈网络(输入层、隐层和输出层)。一个三层前馈网络(输入层、隐层和输出层)。2 反馈型网络反馈型网络反馈网络是指其信息流向的特点。在反馈网络中所有节点都具有信息处理反馈网络是指其信息流向的特点。在反馈网络中所有节点都具有信息处理功能,而且每个节点既可以从外界接受输入,同时又可以向外界输出。功能,而且每个节点既可以从外界接受输入,同时又可以向外界输出。一般来说一般来说:互连型网络结构互连型网络结构 属于反馈型网络属于反馈型网络第三十七页,讲稿共六十三页哦上面介绍的分类方法、结构形式和信息流向只是对目前常见的上面介绍的分类方法、结构形式和信息流向只是对目前常见的网络结构的概括和抽象。实际应用的神经网络可能同时兼有其网络结构的概括和抽象。实际应用的神经网络可能同时兼有其中一种或几种形式。中一种或几种形式。例如,从连接形式看,层次型网络中可能出现局部的互连;从信息例如,从连接形式看,层次型网络中可能出现局部的互连;从信息流向看,前馈网络中可能出现局部反馈。流向看,前馈网络中可能出现局部反馈。综合来看,前述的网络模型可分别称为:前馈层次型、前馈综合来看,前述的网络模型可分别称为:前馈层次型、前馈层内互连型、输入输出有反馈的前馈层次型反馈全互连型和层内互连型、输入输出有反馈的前馈层次型反馈全互连型和反馈局部互连型。反馈局部互连型。反馈网络特点反馈网络特点:(1)反馈关系反馈关系 全互联网络全互联网络;局部互联网络局部互联网络.(2)属于无导师学习网络属于无导师学习网络(3)属于非线性动力学系统网络属于非线性动力学系统网络第三十八页,讲稿共六十三页哦前馈层次型前馈层次型前馈层内互连型前馈层内互连型输入输出有反馈的前馈层次型输入输出有反馈的前馈层次型反馈全互连型反馈全互连型反馈局部互连型反馈局部互连型神神经经网网络络的的拓拓扑扑结结构构是是决决定定神神经经网网络络特特性性的的第第二二大大要要素素。第三十九页,讲稿共六十三页哦神经网络的开发工作分两个阶段神经网络的开发工作分两个阶段:学习阶段学习阶段(期期):也称自适应期或设计期也称自适应期或设计期,通过学习样本或其他方法训通过学习样本或其他方法训练权矩阵练权矩阵;工作阶段工作阶段(期期):各连接权成熟各连接权成熟(不再改变不再改变),求解实际问题求解实际问题,单元状态变单元状态变迁迁,以求达到稳态解以求达到稳态解.第四十页,讲稿共六十三页哦人工神经网络连接权的确定通常有两种方法根据具体要求,直接计算,如Hopfield网络作优化计算通过学习得到的。大多数人工神经网络都采用这种方法 n学习是改变各神经元连接权值的有效方法,也是体现人工神经网络智能特性最主要的标志。离开了学习,神经网络就失去了诱人的自适应、自组织能力学习方法是人工神经网络研究中的核心问题学习方法是人工神经网络研究中的核心问题2.5人工神经网络的学习人工神经网络的学习 第四十一页,讲稿共六十三页哦 人类具有学习能力人类具有学习能力,人类的知识和智慧是在不断的学习与实践人类的知识和智慧是在不断的学习与实践中逐渐形成和发展起来的。中逐渐形成和发展起来的。学习可定义为学习可定义为:“根据与环境的相互作根据与环境的相互作用而发生的行为改变,其结果导致对外界刺激产生反应的新模式的建用而发生的行为改变,其结果导致对外界刺激产生反应的新模式的建立立”。学习过程离不开训练学习过程离不开训练,学习过程就是一种经过训练而使个体在学习过程就是一种经过训练而使个体在行为上产生较为持久改变的过程行为上产生较为持久改变的过程.例如例如,游泳等体育技能的学习需游泳等体育技能的学习需要反复的训练才能提高要反复的训练才能提高,数学等理论知识的掌握需要通过大量的数学等理论知识的掌握需要通过大量的习题进行练习习题进行练习.一般来说一般来说,学习效果随着训练量的增加而提高学习效果随着训练量的增加而提高,这就是这就是学习的进步学习的进步.网络的运行一般分为学习(训练)和工作两个阶段。学习的目的网络的运行一般分为学习(训练)和工作两个阶段。学习的目的是为了从训练数据中提取隐含的知识和规律,并存储于网络中供工作是为了从训练数据中提取隐含的知识和规律,并存储于网络中供工作阶段使用。阶段使用。第四十二页,讲稿共六十三页哦 学习的神经机制学习的神经机制,涉及神经元如何分布、处理和存储信息等。这样涉及神经元如何分布、处理和存储信息等。这样的问题单用行为研究是不能回答的,必须把研究深入到细胞和分子水平。的问题单用行为研究是不能回答的,必须把研究深入到细胞和分子水平。每一种心理功能,如记忆与思想,均归因于神经细胞组群的活动。每一种心理功能,如记忆与思想,均归因于神经细胞组群的活动。大脑大脑中,功能性的神经元连接、突触的形成是关键,中,功能性的神经元连接、突触的形成是关键,医学研究表明:神经医学研究表明:神经元之间的突触联系,其基本部分是先天就有的,但其他部分是由于学元之间的突触联系,其基本部分是先天就有的,但其他部分是由于学习过程中频繁地给予刺激而成长起来的。突触的形成、稳定与修饰等习过程中频繁地给予刺激而成长起来的。突触的形成、稳定与修饰等均与刺激有关,随外界给予的刺激性质不同,能形成和改变神经元的均与刺激有关,随外界给予的刺激性质不同,能形成和改变神经元的突触联系。突触联系。神经网络的全体连接权值可用一个矩阵神经网络的全体连接权值可用一个矩阵W表示,其整体内容反表示,其整体内容反映了神经网络对于所解决问题的知识存储,神经网络能够通过对映了神经网络对于所解决问题的知识存储,神经网络能够通过对样本的学习训练,不断改变网络的连接权值以及拓扑结构,以使样本的学习训练,不断改变网络的连接权值以及拓扑结构,以使网络的输出不断地接近期望输出。这一过程称为神经网络的学习网络的输出不断地接近期望输出。这一过程称为神经网络的学习或训练,其本质是对可变权值的动态调整。或训练,其本质是对可变权值的动态调整。第四十三页,讲稿共六十三页哦 把修正权值的算法称为学习规则(学习算法等)。对单个处理单把修正权值的算法称为学习规则(学习算法等)。对单个处理单元,无论采用哪种学习规则进行调整,其算法都十分简单。但当大量处元,无论采用哪种学习规则进行调整,其算法都十分简单。但当大量处理单元集体进行权值调整时,网络就呈现出理单元集体进行权值调整时,网络就呈现出“智能智能”特性,其中有意义特性,其中有意义的信息就分布地存储在调整后的权值矩阵的信息就分布地存储在调整后的权值矩阵W中。中。神经网络具有学习功能是其最主要的特征之一神经网络具有学习功能是其最主要的特征之一,各种学习算法各种学习算法的研究在的研究在ANN理论与实践发展过程中起着重要作用理论与实践发展过程中起着重要作用.人工神经网络的学习和计算机的机器学习有类似的分类,一类人工神经网络的学习和计算机的机器学习有类似的分类,一类有导师学习有导师学习(从例子中学习从例子中学习),一类无导师学习,一类无导师学习,还有一类为死记式学还有一类为死记式学习。在习。在ANN中,学习规则是修正权的一个算法,以获得满意的系统中,学习规则是修正权的一个算法,以获得满意的系统性能。性能。现有的学习规则大体上可分为以下几类:现有的学习规则大体上可分为以下几类:第四十四页,讲稿共六十三页哦(1)有导师学习规则)有导师学习规则(纠错规则纠错规则)依赖关于输出节点的外部反馈来改变权系数,使实际结点的输依赖关于输出节点的外部反馈来改变权系数,使实际结点的输出与外部的期望输出相一致出与外部的期望输出相一致,即有导师学习规则。从方法上看,基即有导师学习规则。从方法上看,基于或等效于梯度下降方法,通过在局部最大改善的方向上,按照于或等效于梯度下降方法,通过在局部最大改善的方向上,按照小步逐次进行修正,力图达到表示函数功能问题的全局解,但不小步逐次进行修正,力图达到表示函数功能问题的全局解,但不能保证得到全局最优解,同时还要求有大量的训练样本,因而收能保证得到全局最优解,同时还要求有大量的训练样本,因而收敛速度变慢。此外,这种规则对样本的表示次序变化比较敏感。敛速度变慢。此外,这种规则对样本的表示次序变化比较敏感。(2)无导师学习规则)无导师学习规则 学习表现为自适应于输入空间的检测规则。该规则的关键在于调整参学习表现为自适应于输入空间的检测规则。该规则的关键在于调整参数以反映观察事件的分布,即是将事件空间分类成输入活动区域,并有选数以反映观察事件的分布,即是将事件空间分类成输入活动区域,并有选择地对这些区域响应。择地对这些区域响应。(3)死记式学习)死记式学习(相关规则相关规则)仅根据连接之间的激活水平改变权系数。常用于自联想网络,执行特仅根据连接之间的激活水平改变权系数。常用于自联想网络,执行特殊记忆状态的死记式学习。殊记忆状态的死记式学习。第四十五页,讲稿共六十三页哦现在将要分别介绍常用的、基本的学习规则。现在将要分别介绍常用的、基本的学习规则。可以认为,一个神经元是一个自适应单元,其权值可以根据它可以认为,一个神经元是一个自适应单元,其权值可以根据它所接受的输入信号、它的输出信号以及对应的监督信号进行调整。所接受的输入信号、它的输出信号以及对应的监督信号进行调整。日本著名神经网络学者日本著名神经网络学者Amari于于1990年提出一种神经网络权值调整的通年提出一种神经网络权值调整的通用学习规则用学习规则,该规则的图解表示见下图。,该规则的图解表示见下图。图中的神经元图中的神经元j是神经网络中的某个节点,其输入用向量是神经网络中的某个节点,其输入用向量X表示,表示,该输入可以来自网络外部,也可以来自其他神经元的输出。该输入可以来自网络外部,也可以来自其他神经元的输出。第四十六页,讲稿共六十三页哦 第第i个输入与神经元个输入与神经元j的连接权情用的连接权情用wij表示,连接到神经元表示,连接到神经元j的全部的全部权值构成了权向量权值构成了权向量Wj。应当注意的是,该神经元的阈值,对应的输。应当注意的是,该神经元的阈值,对应的输入分量入分量x0恒为恒为-1。图中,。图中,rr(Wj,X,dj)称学习信号称学习信号,该信号通常是,该信号通常是W和和X的函数,而在有导师学习时,它也是教师信号的函数,而在有导师学习时,它也是教师信号dj的函数。通用的函数。通用学习规则可表达为:权向量学习规则可表达为:权向量Wj在在t时刻的调整量时刻的调整量Wj(t)与)与 t时刻的输入时刻的输入向量向量X(t)和学习信号)和学习信号 r的乘积成正比。用数学式表示为的乘积成正比。用数学式表示为 Wj(t)=rWj(t),X(t),dj(t)X(t)第四十七页,讲稿共六十三页哦Wj(t)=rWj(t),X(t),dj(t)X(t)式中式中,为正数,称为学习常数为正数,称为学习常数,其值决定了学习速率,也称学其值决定了学习速率,也称学习率。习率。基于离散时间调整时,下一时刻的权向量应为基于离散时间调整时,下一时刻的权向量应为 Wj(t十十1)=Wj(t)rWj(t),X(t),dj(t)X(t)不同的学习规则对不同的学习规则对r(Wj,X,dj)有不同的定义,从而形成各种各有不同的定义,从而形成各种各样的神经网络学习规则。样的神经网络学习规则。下面对常用学习规则作一简要介绍。下面对常用学习规则作一简要介绍。第四十八页,讲稿共六十三页哦在在Hebbian学习规则中,学习规则中,学习信号简单地等于神经元的输出学习信号简单地等于神经元的输出 权向量的调整公式为权向量的调整公式为 权向量中,每个分量的调整由下式确定权向量中,每个分量的调整由下式确定 =i=0,1,,n上式表明,权值调整量与输入输出的乘积成正比。显然,经常出现的输入模式将对权上式表明,权值调整量与输入输出的乘积成正比。显然,经常出现的输入模式将对权向量有最大的影响。向量有最大的影响。251 Hebbian学习现则学习现则 1949年,心理学家年,心理学家DOHebb最早提出关于神经网络学习机最早提出关于神经网络学习机理的理的“突触修正突触修正”假设。该假设指出,当神经元的突触前膜电假设。该假设指出,当神经元的突触前膜电位与后膜电位同时为正时,突触传导增强,当前膜电位与后膜位与后膜电位同时为正时,突触传导增强,当前膜电位与后膜电位正负相反时,突触传导减弱,也就是说,当神经元电位正负相反时,突触传导减弱,也就是说,当神经元i与神经元与神经元j同时处于兴奋状态时,两者之间的连接强度应增强。同时处于兴奋状态时,两者之间的连接强度应增强。(实质上就是条实质上就

    注意事项

    本文(人工神经网络基础知识讲稿.ppt)为本站会员(石***)主动上传,淘文阁 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知淘文阁 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于淘文阁 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号 © 2020-2023 www.taowenge.com 淘文阁 

    收起
    展开