第5章:神经网络学习.pdf
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《第5章:神经网络学习.pdf》由会员分享,可在线阅读,更多相关《第5章:神经网络学习.pdf(39页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第5章:神经网络学习 机器学习与数据挖掘团队 本章内容本章内容 二、神经网络的发展历史 三、M-P神经元模型 一、神经网络的定义 四、单层感知机 五、多层前馈神经网络 六、深层神经网络 神经网络的命名: 神经网络( Neural Networks ) 人工神经网络( Artificial Neural Networks ) 人工神经系统( Artificial Neural Systems) 神经计算机(Neural Computers) 自适应系统(Adaptive Systems) 自适应网(Adaptive Networks) 联结主义(Connectionisms) 一、神经网络的定义
2、一、神经网络的定义 “神经网络是由具有适应性的简单单元组成的广泛并行互联 的网络, 它的组织能够模拟生物神经系统对真实世界物体所作 出的反应。” Kohonen, 1988 机器学习中的神经网络通常是指“神经网络学习” ,或者 说是机器学习与神经网络两个学科的交叉部分。 既然神经网络的研究是由试图模拟生物神经系统受启发而来 的。因此,有必要先来看看生物神经系统的工作过程: 一、神经网络的定义一、神经网络的定义 生物神经系统:每个神经元通过轴突与其他相邻的神经元 相连,当神经元受到刺激而“兴奋”时,就会向相连的神 经云传递神经脉冲,从而改变这些神经元内的电位;如果 神经元的电位超过一个“阈值”,
3、那么它就会被激活,即 “兴奋”起来,再向其它相连的神经元传递神经脉冲。 一、神经网络的定义一、神经网络的定义 可以说可以说,神经网络的发展是非常曲折的神经网络的发展是非常曲折的,从诞生到从诞生到 现在现在,几经兴衰几经兴衰。大体上大体上,可以将其发展历史分成可以将其发展历史分成 如下五个时期:如下五个时期: 萌芽期萌芽期(人类研究自己智能的开始人类研究自己智能的开始1949) 第一次高潮期第一次高潮期(19501968) 反思期反思期(19691982) 第二次高潮期第二次高潮期(19831990) 再认识与应用期再认识与应用期(1991) 二、神经网络的发展历史二、神经网络的发展历史 萌芽期
4、萌芽期(人类研究自己智能的开始人类研究自己智能的开始1949): 人类对神经网络的研究最早可以追溯到人类研究自 己智能的开始。 1943年,心理学家McCulloch和数学家Pitts建立起 了著名的阈值加权和模型,简称为M-P模型。该成 果发表在数学生物物理学会会刊上。 1949年,心理学家Hebb提出神经元之间的突触联 系是可变的假说Hebb学习规律。Hebb学习规 律被认为是神经网络学习算法的里程碑。 这两个重大的研究成果,构成了神经网络萌芽期的 标志。 二、神经网络的发展历史二、神经网络的发展历史 第一次高潮期第一次高潮期(19501968): 1958年, Rosenblatt提出了
5、单层感知机(Perceptron)模 型及其学习规则。 单层感知机的成功标示着神经网络研究的第一高潮 期的到来。 第一高潮期的成功让人们乐观地认为几乎已经找到 了智能研究的关键。因此,许多部门都开始大规模 地投入此项研究,希望尽快占领神经网络研究的制 高点。 二、神经网络的发展历史二、神经网络的发展历史 反思期(反思期(19691982): 1969年,正当人们兴奋不已的时候,Minsky和 Papert发表了Perceptrons一书, 明确指出:单层 感知机不能解决非线性问题, 多层网络的训练算法 尚无希望。 这一成果的发表标志着人类对神经网络的研究进入 了反思期。很多献身于神经网络研究的
6、科学家的研 究结果很难得到发表,而且是散布在各种杂志之中 ,使得不少有意义的研究成果即使发表了,也很难 被同行看到,著名的BP算法的研究就是一个典型 的例子。 反思期的到来揭示了人类的认识规律:认识-实践 -再认识 。 二、神经网络的发展历史二、神经网络的发展历史 第二次高潮期(第二次高潮期(19831990): 1982年,Hopfield提出了循环网络:引入李雅普诺 夫(Lyapunov)函数作为网络性能判定的能量函数, 建立了神经网络稳定性的判别依据;阐明了神经网 络与动力学的关系;指出用非线性动力学的方法来 研究神经网络的特性、信息是被存放在网络中神经 元的联接权上。 1984年,Ho
7、pfield设计并实现了后来被人们称为 Hopfield网络的电路。较好地解决了著名的TSP问 题,找到了最佳解的近似解,引起了较大的轰动。 Hopfield这两项成果分别于1982和1984年发表在美 国科学院院刊上,标志着神经网络研究第二高潮期 的到来。 二、神经网络的发展历史二、神经网络的发展历史 第二次高潮期(第二次高潮期(19831990): 1985年,Hinton、Sejnowsky、Rumelhart等人所在 的并行分布处理(PDP)小组在Hopfield网络中引入 了随机机制,提出Boltzmann机。 1986年,PDP小组的Rumelhart等研究者重新独立地 提出了多层
8、神经网络的学习算法BP算法,较好 地解决了多层神经网络的学习问题。 1987年,IEEE 在美国加州圣地亚哥召开第一届神 经网络国际会议,宣告了国际神经网络协会正式成 立,掀起了人类向生物学习、研究及应用神经网络 的新热潮。 1990年,国内首届神经网络大会在北京举行。 二、神经网络的发展历史二、神经网络的发展历史 再认识与应用期(再认识与应用期(1991): 90年代初,伴随统计学习理论和SVM的兴起, 神经 网络由于理论不够清楚, 试错性强, 难以训练, 再次 进入低谷。 2006年,Hinton提出了深度信念网络(DBN), 通过“ 预训练+微调”使得深度模型的最优化变得相对容 易。 2
9、012年,Hinton组参加ImageNet竞赛,使用CNN 模型以超过第二名10个百分点的成绩夺得当年竞赛 的冠军。 二、神经网络的发展历史二、神经网络的发展历史 再认识与应用期(再认识与应用期(1991): 2016年3月谷歌人工智能AlphaGo在围棋比赛中4: 1战胜世界围棋冠军李世石;2017年5月,又在浙江 乌镇的围棋峰会上,以3:0完胜我国世界排名第一 棋手柯洁。 2017年1月6日,最强大脑第四季引入“人机大战” 模式,百度研发的人工智能机器人“小度”作为特 别选手参赛,并在比赛中战胜了最强大脑的队长 王峰。 伴随云计算、大数据时代的到来,计算能力的大幅 提升,使得深度学习模型
10、在计算机视觉、自然语言 处理、语音识别等众多领域都取得了较大的成功。 二、神经网络的发展历史二、神经网络的发展历史 最基本的信息处理单元:最基本的信息处理单元:M-P神经元模型神经元模型 输入输入:来自其他个神经云传递过来的输入信号 处理处理:输入信号通过带权重的连接进行传递, 神经 元接受到总输入值将与神经元的阈值进行比较 输出输出:通过激活函数的处理以得到输出 三、三、M M- -P P神经元模型神经元模型 激活函数激活函数 阈值加权和模型阈值加权和模型 激活函数激活函数(Activation Function) :对神经元所获得对神经元所获得 的网络输入的进行变换的网络输入的进行变换,也
11、称为激励函数也称为激励函数、活化活化 函数:函数:o=f(net)。常用的激活函数有:常用的激活函数有: 1、线性函数(、线性函数(Linear Function) f(net)=k*net+c 线性函数只能进行线性变化,不适合用来处理非线性函数只能进行线性变化,不适合用来处理非 线性问题。线性问题。 net o o c 三、三、M M- -P P神经元模型神经元模型 k k 2、非线性斜面函数非线性斜面函数(Ramp Function) if net f(net)=k*netif |net| f(net)= -if net 、均为非负数均为非负数,为阈值为阈值 二值形式:二值形式: 1if
12、net f(net)= 0if net - o net0 三、三、M M- -P P神经元模型神经元模型 4、逻辑斯蒂函数逻辑斯蒂函数(Logistic Function) f(net)=a+b/(1+exp(-d*net) a,b,d为常数为常数。它的饱和值为它的饱和值为a和和a+b。 a=0,b=1,d=1时时,简化为简化为最简单的形式:最简单的形式: f(net)= 1/(1+exp(-net) a+b o (0,c)net a c=a+b/2 三、三、M M- -P P神经元模型神经元模型 4、逻辑斯蒂函数逻辑斯蒂函数(Logistic Function) 逻辑斯蒂函数形如逻辑斯蒂函数
13、形如S S,也叫也叫S S形函数;将较大范围形函数;将较大范围 变化的输入值挤压到变化的输入值挤压到(0 0, ,1 1)的输出值范围内的输出值范围内,因因 此也叫挤压函数;有较好的增益控制能力此也叫挤压函数;有较好的增益控制能力,也叫也叫 增益控制函数增益控制函数。 此时的此时的M M- -P P神经元模型神经元模型 就是一个逻辑斯蒂就是一个逻辑斯蒂 回归模型回归模型。 a+b o (0,c)net a c=a+b/2 三、三、M M- -P P神经元模型神经元模型 四、单层感知机四、单层感知机 单层感知机的定义单层感知机的定义 单层感知机只拥有一层M-P神经元, 即只包含输入 层和输出层,
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 大学计算机CAP
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内