第三讲人工神经网络课件.ppt
《第三讲人工神经网络课件.ppt》由会员分享,可在线阅读,更多相关《第三讲人工神经网络课件.ppt(27页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第三讲人工神经网络第1页,此课件共27页哦第三讲第三讲 神经网络的学习规则和感知器神经网络的学习规则和感知器主讲内容主讲内容 3.1 3.1 机器学习与神经网络学习机器学习与神经网络学习 3.2 3.2 几种神经网络学习规则几种神经网络学习规则 3.3 3.3 感知器学习规则、算法以及收敛性感知器学习规则、算法以及收敛性 定理定理 3.4 3.4 本讲问题本讲问题本章目的:本章目的:介绍各种学习算法的数学原理、分析学习性质;说明算法的使用。(不讲有关的算法的生理学、生物学原理)第三讲第三讲 神经网络的学习规则和感知器神经网络的学习规则和感知器主讲人方涛主讲人方涛第2页,此课件共27页哦3.1
2、3.1 机器学习与神经网络学习机器学习与神经网络学习3.1.1 3.1.1 机器学习机器学习3 3.1.2.1.2 神经网络学习及其分类神经网络学习及其分类第三讲第三讲 神经网络的学习规则和感知器神经网络的学习规则和感知器主讲人方涛主讲人方涛第3页,此课件共27页哦3.1.1 3.1.1 机器学习机器学习 机器学习机器学习AIAI的一个分支学科的一个分支学科 3.1 3.1 机器学习与神经网络学习机器学习与神经网络学习 人类学习行为(客观世界)研究归纳、类比等基本方法获取各种知识和技能。机器学习了解人类的各种学习过程建立各种学习模型赋予机器的学习能力。有了学习能力,才能不断自我完善,自我校正,
3、自动获取和发现新的知识 机器学习目前已经有:事例学习、遗传学习、类比学习 第三讲第三讲 神经网络的学习规则和感知器神经网络的学习规则和感知器主讲人方涛主讲人方涛第4页,此课件共27页哦3.1 3.1 机器学习与神经网络学习机器学习与神经网络学习机器学习的发展历史:20世纪50年代中期 研究没有任何初始知识的通用学习系统,尤其是神经网络系统。主要特点:数值表示和参数调整,比如感知机、生物进化过程模拟等。AI:符号表示和启发式方法,即偏于模式识别 20世纪60年代初期 概念学习和语言获取。主要特点:符号表示(已成为AI主要方法)20世纪70年代中后期专家系统和知识工程形成,对知识尤为关注,兴盛时期
4、。20世纪80年代中后期 源于神经网络的重新兴起,使非符号的神经网络研究和符号学习得以深入开展。第三讲第三讲 神经网络的学习规则和感知器神经网络的学习规则和感知器主讲人方涛主讲人方涛第5页,此课件共27页哦3.1 3.1 机器学习与神经网络学习机器学习与神经网络学习机器学习的发展历史:20世纪90年代 有限样本统计理论线性空间表示,Vapnik:SVM(1991);弱学习定理(1990);Freund:AdaBoost(1996)21世纪近10年-流形学习研究热 局部线性嵌入(LLE)等距映射(Isomap)拉普拉斯特征映射(Laplacian Eigenmap)第三讲第三讲 神经网络的学习规
5、则和感知器神经网络的学习规则和感知器主讲人方涛主讲人方涛第6页,此课件共27页哦17对象的层次性流形(HML)构造高维特征空间的层次性流形学习流形学习降维研究目标高维特征低维嵌套的非线性映射,提供目标特性低维表达的有效方式 LLE、ISOMap、Laplacian Eigenmap、Hessian Eigenmap等多子流形多类别高分影像对象广泛存在大类、小类等层次性结构单一结构的流形难以更准确进行非线性映射层次性流形(HML)不同类别、不同层次的多个子流形父流形与子流形间关系,通过自下而上“”实现层次性邻及矩阵第7页,此课件共27页哦18流形学习降维广义回归神经网络GRNN 解决out-of
6、-sample通过层次性流形(HML)降维,解译精度比单一流 形性能显著提高高维特征空间的层次性流形学习该方法得到了国际同行评价该方法得到了国际同行评价“This is a completely valid approach from a pragmatic perspective,and can even lead to better results”第8页,此课件共27页哦3.1 3.1 机器学习与神经网络学习机器学习与神经网络学习3.1.2 3.1.2 神经网络学习及其分类神经网络学习及其分类人工神经网络的主要学习算法:3.1.2.1 有无导师的学习方式 与机器学习类似:事例学习、无导师
7、学习、死记式学习。主要分为:监督学习(有导师学习)依据期望值与实际网络输出值之差来调整连接权,因此需要有导师来提供期望值。将训练样本的数据加入到网络输入端,由期望输出与网络输出得到误差信号,由此控制连接权的调整,多次训练使得连接权收敛到某个确定值。反传网络、感知器、LVQ算法、广义 规则第三讲第三讲 神经网络的学习规则和感知器神经网络的学习规则和感知器主讲人方涛主讲人方涛第9页,此课件共27页哦3.1 3.1 机器学习与神经网络学习机器学习与神经网络学习 非监督学习(无导师学习)神经元仅根据I/O来修正连接权。直接将网络置于环境中,学习阶段与工作阶段于一体,具有自适应性。比如:Hebb学习规则
8、(简单),竞争学习(复杂)、ART、自组织映射 强化学习 (有导师学习的特例)采用“评论员”来评价与给定输入相对应的神经网络输出的优度(质量因子)。典型例子:遗传算法(Gas)。3.1.2.2 来自环境刺激模式的多少分类 联想式学习 非联想式学习第三讲第三讲 神经网络的学习规则和感知器神经网络的学习规则和感知器主讲人方涛主讲人方涛第10页,此课件共27页哦3.1 3.1 机器学习与神经网络学习机器学习与神经网络学习3.1.2.3 网络连接方式来分 阶层 相互连接 一旦神经网络的拓扑结构确定后,学习就是连接权的修正。学习模型:第三讲第三讲 神经网络的学习规则和感知器神经网络的学习规则和感知器主讲
9、人方涛主讲人方涛1x2xnx1 iw2iwinw2y,21iniiiwwwW连接权向量,21nxxxX输入)()(1xWfxwffTinjjij)(激励函数第11页,此课件共27页哦3.2 3.2 几种神经网络学习规则几种神经网络学习规则3.2.1 Hebb3.2.1 Hebb学习规则学习规则3 3.2.2.2.2 剃度下降算法与剃度下降算法与 学习规则学习规则3.2.3.2.其它几种学习规则其它几种学习规则第三讲第三讲 神经网络的学习规则和感知器神经网络的学习规则和感知器主讲人方涛主讲人方涛第12页,此课件共27页哦3.2 3.2 几种神经网络学习规则几种神经网络学习规则3.2.1 Hebb
10、3.2.1 Hebb学习规则学习规则 Hebb(美国心理学家)1949年提出假说(Organization of Behavior):“如果两个神经元A和B有一个共同的突触S,那么当两个神经元同时兴奋时,突触的强度增强。”规则:当第i个和第j个神经元同时处于兴奋状态时,其连接权加强。(最简单的非监督学习)学习速率参数(训练速率参数)、输入 输出权的初始化:在0附近取很小的随机值。第三讲第三讲 神经网络的学习规则和感知器神经网络的学习规则和感知器主讲人方涛主讲人方涛)()1(nwnwxywijijjiijjxiyjTiijTiixXWfwXXWfW)()(标量形式向量形式第13页,此课件共27页
11、哦3.2 3.2 几种神经网络学习规则几种神经网络学习规则3.2.2 3.2.2 剃度下降算法与剃度下降算法与 学习规则学习规则 剃度下降算法的一般形式 其中E为误差函数。误差反传训练算法(BP)就是由梯队算法推导出来的,收敛速度慢。学习训练算法(最小均方规则)学习规则:用神经元的输出值与期望值之间的最小平方误差来调整连接权。第三讲第三讲 神经网络的学习规则和感知器神经网络的学习规则和感知器主讲人方涛主讲人方涛ijijwEw22)(21)(21XWfdydETiiii第14页,此课件共27页哦3.2 3.2 几种神经网络学习规则几种神经网络学习规则 剃度向量 标量 令 标量可以推广于多层网络。
12、学习训练算法为剃度下降算法的一个特例。第三讲第三讲 神经网络的学习规则和感知器神经网络的学习规则和感知器主讲人方涛主讲人方涛XXWfydETiii)()(jTiiiijxXWfydwE)()(XXWfydEWTiiii)()(jTiiiijxXWfydw)()(第15页,此课件共27页哦3.2 3.2 几种神经网络学习规则几种神经网络学习规则3.2.3 3.2.3 其它几种学习规则其它几种学习规则 内外星学习规则 Grossberg 1974年提出来的,由信号的流向确定是内星还是外星。内星:节点通过连接权接受一组输入信号。连接权的学习规则:第三讲第三讲 神经网络的学习规则和感知器神经网络的学习
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第三 人工 神经网络 课件
限制150内