第5章计算智能-bistu人工智能基础.ppt
《第5章计算智能-bistu人工智能基础.ppt》由会员分享,可在线阅读,更多相关《第5章计算智能-bistu人工智能基础.ppt(89页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、1 第5章 计算智能计算智能052 第5章 计算智能目录/Contents5.15.15.25.2模糊理论神经网络5.35.3遗传算法5.45.4群体智能5.45.4本章小结3 第5章 计算智能目录/Contents5.15.1模糊理论一、模糊集合及其运算二、模糊推理三、模糊控制4 第5章 计算智能一、模糊集合及其运算1965年,扎德在其著名的论文“Fuzzy Sets”中提出了模糊集合的概念用于描述一个没有明确、清楚的定义界限的集合,元素可以部分的隶属于这个集合。序对方式表示:积分形式表示:模糊集合的两种表示方法:为论域U的一个模糊集合,称为模糊集合的隶属度函数。的大小反映了u对于模糊集 的
2、隶属程度。隶属度 的值越大,表示u属于 的程度越高。5 第5章 计算智能模糊集合的基本运算 设 ,是论域U上的模糊集合,任意元素 ,则u对 与 的交集 、并集 和 的补集 的隶属度函数定义:交运算(AND运算):并运算(OR运算):补运算(NOT运算):与 的交集、并集和补集也是U上的模糊集合。6 第5章 计算智能模糊集合的基本运算模糊集合运算的基本性质:幂等律:德-摩根律:交换律:结合律:分配律:吸收律:两极律:复原律:7 第5章 计算智能二、模糊推理 模糊关系:直积空间 上的模糊关系是 的一个模糊子集 ,的隶属度函数 表示了X中的元素x与Y中的元素y具有这种关系的程度。当 是有限集合时,定
3、义在 上的模糊关系R可用 阶矩阵表示:8 第5章 计算智能模糊关系的合成运算模糊关系的交、并、补运算规则:交运算:并运算:补运算:设X、Y、Z是论域,R是X到Y的一个模糊关系,S是Y到Z的一个模糊关系,R到S的合成T也是一个模糊关系,记为其隶属度如下:合成运算:9 第1章 概述模糊逻辑推理一般情况的模糊逻辑推理,即有n个前提 在或(or)的连接下 对前提A*的推理结果B*可如下求得 模糊逻辑推理是模糊关系合成的运用之一。例如对于模糊关系为R的控制器,当其输入为A时,根据推理合成规则,即可求得控制器的输出B。10 第1章 概述三、模糊控制模糊控制原理图 模糊控制和传统控制的系统结构一致,最常见的
4、模糊控制系统有Mamdani型模糊逻辑系统和高木-关野(Takagi-Sugeno)型模糊逻辑系统。11 第1章 概述模糊控制的基本思想 在忽略了空气阻力和各种摩擦之后,可将一级倒立摆系统抽象成小车和匀质杆组成的系统,摆杆与小车之间为自由链接,小车在控制力的作用下沿滑轨在x方向运动,控制目的是使倒立摆能够尽可能稳定在铅直方向,同时小车的水平位置也能得到控制。一级倒立摆系统简单说明模糊控制器设计的一般方法:12 第5章 计算智能模糊控制的基本思想1)模糊化 以摆杆的倾角和速度作为输入变量,建立倾角和速度的模糊子集。接着按照一定的隶属度函数确定每个模糊子集隶属度,这个确定隶属度的过程就是对变量进行
5、模糊化的过程。2)模糊推理 建立一系列的模糊规则,来描述各种输入所产生的作用。如可以建立一些规则:如果摆杆向左倾斜大并倒得非常快,那么小车快速向左运动;如果摆杆向左倾斜大并倒得较快,那么小车中速向左运动;如果摆杆向左倾斜小并倒的慢,那么小车慢速向左运动。3)解模糊 模糊输出量被反模糊化为能够用于对物理装置进行控制的精确量这个过程称为解模糊。这里,可以通过重心法解模糊得到施加在小车上的控制力U实现倒立摆的稳定控制。13 第5章 计算智能模糊控制的特点模糊控制显著特点:1)无需知道被控对象的精确数学模型。2)易被人们接受。模糊控制的核心是模糊推理,它是人类通常智能活动的体现。3)鲁棒性好。干扰和参
6、数变化对控制效果的影响被大大减弱,尤其适合于非线性、时变及纯滞后系统的控制。模糊控制待解决问题:1)在理论上还无法像经典控制理论那样证明运用模糊逻辑的控制系统的稳定性。2)模糊逻辑控制规则靠人的经验制定的,它本身并不具有学习功能。3)模糊控制规则越多,控制运算的实时性越差。14 第5章 计算智能目录/Contents5.15.15.25.2模糊理论5.35.3遗传算法5.45.4群体智能5.45.4本章小结神经网络15 第5章 计算智能目录/Contents5.25.2神经网络一、神经网络结构二、神经网络的学习机制三、感知器四、BP神经网络五、径向基神经网络六、反馈式神经网络七、自组织竞争神经
7、网络八、CMAC网络16 第5章 计算智能一、神经网络结构 人工神经网络是基于生物神经元网络机制提出的一种计算结构,是生物神经网络的某种模拟、简化和抽象。人工神经元M-P模型结构是一个多输入,单输出的非线性元件。其I/O关系可推述为:是从其他神经元传来的输入信号;表示从神经元i到神经元j的连接权值;为阈值;称为激励函数或转移函数。17 第5章 计算智能人工神经元 其它不同的一些神经元数学模型主要区别在于采用了不同的激励函数,常用的激励函数有阈值型函数,分段线性函数,Sigmoid型函数等,如下表名称阈值函数双向阈值函数S函数双曲正切函数高斯函数公式 图形特征不可微,类阶跃,正值不可微,类阶跃,
8、零均值可微,类阶跃,正值不可微,类阶跃,零均值可微,类脉冲18 第5章 计算智能神经网络拓扑结构 神经网络的拓扑结构,主要指它的联接方式。将神经元抽象为一个节点,神经网络则是节点间的有向连接,根据连接方式的不同大体可分为层状和网状两大类。左图层状结构的神经网络各层顺序相连,信号单向传递;右图网状结构的神经网络的任何两个神经元之间都可能双向联接。19 第5章 计算智能神经网络结构模型的特点1)分布性 神经网络通过大量神经元之间的连接及对各连接权值的分布来表示特定的信息;神经网络存储信息不是存储在一个地方,而是分布在不同的地方;2)并行性 神经网络的每个神经元都可根据接收到的信息进行独立的运算和处
9、理,然后将输出结果传输给其它神经元进行同时(并行)处理。3)容错性 由于神经网络信息的存储是分布式地存在整个网络的连接权值上,这种分布式存储方式即使局部网络受损或外部信息部分丢失也不影响整个系统的性能,具有恢复原来信息的优点。4)联想记忆性 神经网络具有对外界刺激信息和输入模式进行联想记忆的能力。5)自适应性 神经网络能够进行自我调节,以适应环境变化。20 第5章 计算智能二、神经网络的学习机制 神经网络的学习,本质上是对可变权值的动态调整。目前神经网络的学习方法有多种,按有无导师分类,可分为无教师学习,有教师学习和强化学习等几大类。(1)有教师学习(监督学习)教师输出为输入信号p的期望输出t
10、。误差信号为神经网络实际输出与期望输出之差。神经网络的参数根据训练向量和反馈回的误差信号进行逐步、反复地调整。21 第5章 计算智能神经网络的学习机制(2)无教师学习(无监督学习)无教师学习只要求提供输入,学习是根据输入的信息、特有的网络结构和学习规则来调节自身的参数或结构。网络的输出由学习过程自行产生,将反映输入信息的某种固有特性。无教师学习主要作用:1)聚类 2)数据压缩与简化22 第5章 计算智能神经网络的学习机制(3)强化学习 强化学习的学习目标是动态地调整参数,以达到强化信号最大。学习系统选择一个动作作用于环境,环境接受该动作后状态发生变化,同时产生一个强化信号(奖或惩)反馈给学习系
11、统,学习系统根据强化信号和环境当前状态再选择下一个动作。23 第5章 计算智能三、感知器1957年,美国学者Rosenblatt提出一种用于模式分类的神经网络模型,称为感知器。感知层(输入层)自身并无信息处理能力;输出层(信息处理层)每个节点均具有信息处理能力,并向外部输出处理后的信息,不同的输出节点,其连接权是相互独立的。单计算节点的单层感知器 多输出节点的单层感知器24 第5章 计算智能感知器的学习算法 感知器的基本功能是对外部信号进行“感知”与“识别”。当有一定状态的外部刺激信号或其它神经元的信号,感知器处于“兴奋”状态,其他状态时,呈现“抑制”态。如果A、B是 中两个互不相交的集合,且
12、以下方程成立,则称集合(A,B)为感知器的学习目标。根据感知器模型,学习算法实际是要寻找 满足下述要求:25 第5章 计算智能感知器的学习算法 感知器的训练过程是感知器权值的逐步调整过程,为此用t表示每一次调整的序号。t0对应于学习开始前的初始状态,此时对应的权值为初始化值。训练可按如下步骤进行:1)对各权位 (m为计算层的节点数)赋予较小的非零随机数;2)输入样本对 ,其中 ,的输出向量(教师信号),上标p代表样本对的模式序号,设样本集中的样本总数为P,则p=1,2,P;3)计算各节点的实际输出 ,;4)调整各节点对应的权值 ,其中 为学习率,用于控制调整速度,但 值太大会影响训练的稳定性,
13、太小则使训练的收敛速度变慢,一般取 ;5)返回到步骤2)输入下一对样本;以上步骤周而复始,直到感知器对所有样本的实际输出与期望输出相等。26 第5章 计算智能感知器的局限性与改进方式1)感知器的主要局限性感知器的激活函数是单向阈值函数,因此感知器网络的输出值只能取0或1;感知器神经网络只能对线性可分的向量集合进行分类;单层感知器对权值向量的学习算法是基于迭代思想的,通常是采用纠错学习规则进行学习;当输入样本中存在奇异样本时,网络训练所花费的时间就很长;2)感知器的主要改进方式转移函数的改进神经元的内部进行改造;神经网络的结构上的改进神经元之间的联接形式上进行改造;学习算法的改进在人工神经网络权
14、值和阈值求取方法上进行改造;综合改进上述方法综合进行改造。;27 第5章 计算智能三、BP神经网络 误差反向传播(Error Back Proragation,BP)算法是一种利用误差反向传播训练算法的前馈型网络。输入向量:隐层输出向量:输出层输出向量:期望输出向量:输入层到隐层之间的权值矩阵:其中列向量 为隐层第j个神经元对应的权向量隐层到输出层之间的权值矩阵:其中列向量 为输出层第k个神经元对应的权向量;BP神经网络模型(包括输入层、隐层和输出层)28 第5章 计算智能BP神经网络三层感知器的数学模型中各层信号之间的数学关系如下:对于隐层,有对于输出层,有以上两式中,变换函数 通常均为单极
15、性sigmoid函数(sigmoid函数连续、可导)也可以采用双极性sigmoid函数(或称双曲线正切函数)为降低计算复杂度,根据需要输出层也可以采用线性函数 29 第5章 计算智能BP学习算法 BP学习算法实质是求取网络总误差函数的最小值问题。具体采用“最速下降法”,按误差函数的负梯度方向进行权系数修正。具体学习算法包括,输入信号的正向传递过程和输出误差信号的反向传播过程两大过程。1)网络的误差当网络输出与期望输出不等时,存在输出误差 ,定义如下 进一步展开至输入层,有 30 第5章 计算智能BP学习算法2)基于梯度下降的网络权值调整 网络输入误差是关于各层权值 的函数,因此调整权值就可改变
16、误差 。调整权值的原则应该使误差不断地减小,因此可采用梯度下降(Gradient Descent)算法,使权值的调整量与误差的梯度下降成正比,即 负号表示梯度下降,常数 表示比例系数,在训练中反映了学习速率。31 第5章 计算智能BP学习算法 上述标准BP算法每输入一个样本,都要回传误差并调整权值。累积误差校正BP算法是在所有P对样本输入之后,计算累积误差,根据总误差计算各层的误差信号并调整权值。P对样本输入后,网络的总误差 可表示为:这种训练方式是一种批处理方式,以累积误差为目标,也可称为批(Batch)训练或周期(Epoch)训练算法。算法着眼于全局,在样本较多时候,较单样本训练方法收敛速
17、度快。标准BP算法与累积误差校正BP算法的区别在于权值调整方法。前向型神经网络的相关改进学习算法多是以BP算法为基础的。32 第5章 计算智能BP网络的功能与数学本质BP神经网络的功能特点:非线性映射能力 多层前馈网能学习和存贮大量“输入输出”模式的映射关系,而无需事先了解描述这种映射关系的数学方程。只要能提供足够多的样本模式对供BP网络进行学习训练,它便能完成由n维输入空间到m维输出空间的非线性映射。泛化能力 神经网络的泛化能力是指当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入空间向输出空间的正确映射。容错能力 输入样本中带有较大的误差甚至个别错误对网络的输入输出规律影响不大。
18、33 第5章 计算智能BP网络的功能与数学本质BP神经网络的数学本质:BP神经网络从非线性映射逼近观点来看,均可由不超过4层的网络来实现,其数学本质就是插值,或更一般地是数值逼近。不仅是BP网络,其反馈式或其它形式的人工神经网络,总要有一组输入变量 和一组输出变量 ;从数学上看,这样的网络不外乎是一个映射:34 第5章 计算智能BP网络的设计1)输入-输出变量的确定与训练样本集的准备 输出量可以是系统的性能指标、类别归属或非线性函数的函数值等。对于具体问题,输入量必须选择那些对输出影响大且能够检测或提取的相关性很小的输入变量。产生数据样本集,训练数据的产生包括数据收集、数据分析、变量选择以及数
19、据预处理。2)神经网络结构的确定(网络的层数、每层节点数)确定了输入和输出变量后,网络输入层和输出层的节点个数也就确定了。剩下的问题是考虑隐含层和隐层节点。从原理上讲,只要有足够多的隐含层和隐层节点,BP神经网络即可实现复杂的非线性映射关系,但另一方面,基于计算复杂度的考虑,应尽量使网络简单,即选取较少的隐层节点。3)神经网络参数的确定(通过训练获得阈值、传输函数及参数等)如果样本集能很好地代表系统输入/输出特征,神经网络进行了有效的学习与训练,神经网络将具有较好的映射性能。35 第5章 计算智能BP网络的问题与改进1)BP神经网络存在的缺陷网络的训练易陷入局部极小值;网络的学习收敛速度缓慢;
20、网络的结构难以确定;网络的泛化能力不能保证;2)传统BP算法的改进与优化增加阻尼项;自适应调节学习率;引入陡度因子;L-M学习算法;36 第5章 计算智能BP网络的问题与改进3)深度神经网络浅层学习 BP神经网络模型中含有一层隐层节点,可称为浅层模型。BP算法只能处理浅层结构(小于等于3),限制了网络的性能。对于浅层模型,样本特征的好坏成为系统性能的瓶颈。深度神经网络模型深度学习 深度学习的实质,是通过构建具有很多隐层的机器学习模型和海量的训练数据,来学习更有用的特征,从而最终提升分类或预测的准确性。37 第5章 计算智能五、径向基神经网络 径向基函数(Radial Basis Functio
21、n,RBF)网络是一种前馈型局部逼近神经网络。RBF网络是单隐层的前向网络,它由输入层、隐含层、输出层三层构成。RBF神经网络的基本思想:用径向基函数(RBF)作为隐单元的“基”,构成隐含层空间,将输入矢量直接映射到隐空间。根据隐节点的个数,RBF网络有两种模型:正规化网络(Regularization Network)广义网络(Generalized Network)广义网络结构38 第5章 计算智能径向基神经网络RBF神经网络的特点:RBF神经网络是单隐层的;RBF神经网络用于函数逼近时,隐节点为非线性激活函数,输出节点为线性函数。隐节点确定后,输出权值可通过解线性方程组得到;RBF神经网
22、络具有“局部映射”特性,是一种有局部响应特性的神经网络;RBF神经网络隐节点的非线性变换(高斯函数)将低维空间的输入拓展到了高维空间,把线性不可分问题转化为线性可分问题;39 第5章 计算智能RBF网络的数学基础 径向基函数指某种沿径向对称的标量函数,通常定义为空间中任一点到某一中心之间欧氏距离的单调函数。设有P个输入样本 (插值条件),在输出空间相应目标为 。需要找到一个非线性映射函数 ,使得:选择P个基函数,每个基函数对应一个训练数据,各基函数的形式为:是函数的中心,以输入空间的点 与中心 的距离为自变量。故称为径向基函数。插值函数F(X)为基函数的线性组合 将插值条件代入,得到关于P个关
23、于未知 的P个方程。求解方程组可得到相应的参数。40 第5章 计算智能RBF网络的数学基础 RBF 网解决内插问题时,使用P个隐节点,并把所有的样本输入 选为RBF网的数据中心,且各基函数取相同的扩展常数。于是RBF 网从输入层到隐层的输出便是确定的。网络在样本输入点的输出就等于教师信号,此时网络对样本实现了完全内插,即对所有样本误差为0。径向基函数插值示意图41 第5章 计算智能RBF网络的学习算法 对于一个实际问题,径向基神经网络的设计包括结构设计和参数设计。结构设计主要是确定网络的隐节点数,参数设计只需考虑扩展常数和输出节点的权值。当采用广义RBF网络结构时,如果给定了训练样本,那么该网
24、络的学习算法应该解决的问题包括:1)如何确定网络隐节点数;2)如何确定各径向基函数的数据中心及扩展常数;3)如何修正输出权值。一般情况下,如果知道了网络的隐节点数、数据中心和扩展常数,RBF神经网络从输入到输出就成了一个线性方程组,此时,输出层权值学习可采用最小二乘法等方法求解。42 第5章 计算智能RBF神经网络与BP神经网络的比较 RBF神经网络与BP神经网络的不同在于:1)网络结构 BP神经网络各层之间采用权连接,而RBF神经网络输入层到隐层单元之间为直接连接,隐层到输出层之间实行权连接。BP神经网络隐层单元转移函数一般选择S型函数,RBF神经网络隐层单元的转移函数是关于中心对称的径向对
25、称函数。RBF神经网络与BP神经网络都是非线性多层前向网络,它们都是通用逼近器。对于任一个BP神经网络,总存在一个RBF神经网络可以代替它。43 第5章 计算智能RBF神经网络与BP神经网络的比较2)局部逼近与全局逼近 BP神经网络的隐节点采用输入模式与权向量的内积作为激活函数的自变量,而激活函数则采用Sigmoid 函数。BP神经网络是对非线性映射的全局逼近。RBF神经网络的隐节点采用输入模式与中心向量的距离(如欧氏距离)作为函数的自变量,并使用径向基函数(如Gaussian函数)作为激活函数。神经元的输入离径向基函数中心点越远,神经元的激活程度就越低。RBF网络具有“局部映射”特性。44
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第5章 计算智能-bistu人工智能基础 计算 智能 bistu 人工智能 基础
限制150内