绝对经典神经网络精选文档.ppt
《绝对经典神经网络精选文档.ppt》由会员分享,可在线阅读,更多相关《绝对经典神经网络精选文档.ppt(29页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、绝对经典神经网络本讲稿第一页,共二十九页1.Gauss(高斯)函数:(高斯)函数:2.反演反演S型函数:型函数:3.拟多二次函数:拟多二次函数:称称为为基函数的基函数的扩扩展常数或展常数或宽宽度,度,越小,径向基函数的越小,径向基函数的宽宽度越小,基函数就越有度越小,基函数就越有选择选择性。性。径向基函数(径向基函数(RBF)本讲稿第二页,共二十九页全局逼近和局部逼近全局逼近和局部逼近全局逼近网络全局逼近网络局部逼近网络局部逼近网络当神经网络的一个或多个可当神经网络的一个或多个可调参数调参数(权值和阈值权值和阈值)对任何对任何一个输出都有影响,则称该一个输出都有影响,则称该神经网络为全局逼近网
2、络。神经网络为全局逼近网络。对网络输入空间的某个局对网络输入空间的某个局部区域只有少数几个连接部区域只有少数几个连接权影响网络的输出,则称权影响网络的输出,则称该网络为局部逼近网络该网络为局部逼近网络学习速度很慢,无法满足实时性要求的应用学习速度很慢,无法满足实时性要求的应用学习速度快,有可能满足有实时性要求的应用学习速度快,有可能满足有实时性要求的应用本讲稿第三页,共二十九页RBF网络的工作原理网络的工作原理函数逼近:函数逼近:以任意精度逼近任一连续函数。一般函数都可表示成一组以任意精度逼近任一连续函数。一般函数都可表示成一组基函数的线性组合,基函数的线性组合,RBF网络相当于用隐层单元的输
3、出构网络相当于用隐层单元的输出构成一组基函数,然后用输出层来进行线性组合,以完成成一组基函数,然后用输出层来进行线性组合,以完成逼近功能。逼近功能。分类:分类:解决非线性可分问题。解决非线性可分问题。RBF网络用隐层单元先将非线性可网络用隐层单元先将非线性可分的输入空间设法变换到线性可分的特征空间(通常是高分的输入空间设法变换到线性可分的特征空间(通常是高维空间),然后用输出层来进行线性划分,完成分类功能。维空间),然后用输出层来进行线性划分,完成分类功能。本讲稿第四页,共二十九页RBF神经网络两种模型神经网络两种模型正规化网络正规化网络RN广义网络广义网络GN通用逼近器模式分类模式分类基本思
4、想:基本思想:通过加入一个含有解的先验知识的约束来通过加入一个含有解的先验知识的约束来控制映射函数的光滑性,若输入一输出映射控制映射函数的光滑性,若输入一输出映射函数是光滑的,则重建问题的解是连续的,函数是光滑的,则重建问题的解是连续的,意味着相似的输入对应着相似的输出。意味着相似的输入对应着相似的输出。基本思想:基本思想:用径向基函数作为隐单元的用径向基函数作为隐单元的“基基”,构成隐含,构成隐含层空间。隐含层对输入向量进行变换,将低维层空间。隐含层对输入向量进行变换,将低维空间的模式变换到高维空间内,使得在低维空间的模式变换到高维空间内,使得在低维空间内的线性不可分问题在高维空间内线性可分
5、。空间内的线性不可分问题在高维空间内线性可分。本讲稿第五页,共二十九页两种模型的比较两种模型的比较隐节点隐节点=输入样本数输入样本数隐节点输入样本数隐节点输入样本数 所有输入样本设为所有输入样本设为径向基函数的中心径向基函数的中心径向基函数的中心径向基函数的中心由训练算法确定由训练算法确定径向基函数径向基函数取统一的扩展常数取统一的扩展常数径向基函数的扩展常数径向基函数的扩展常数不再统一由训练算法确定不再统一由训练算法确定没有设置阈值没有设置阈值输出函数的线性中包含阈值参数,输出函数的线性中包含阈值参数,用于补偿基函数在样本集上的用于补偿基函数在样本集上的平均值与目标值之平均值之间的差别。平均
6、值与目标值之平均值之间的差别。RNGN本讲稿第六页,共二十九页函数逼近问题(内插值)函数逼近问题(内插值)一般函数都可表示成一一般函数都可表示成一组组基函数的基函数的线线性性组组合,合,RBFRBF网网络络相当于用相当于用隐层单隐层单元的元的输输出构成一出构成一组组基函数,然后用基函数,然后用输输出出层层来来进进行行线线性性组组合,以完成逼近功能。合,以完成逼近功能。给给定定样样本数本数据据 寻寻找函数,使其找函数,使其满满足:足:本讲稿第七页,共二十九页1.网络隐层使用个隐节点。网络隐层使用个隐节点。2.把所有个样本输入分别作为个隐节点的中心。把所有个样本输入分别作为个隐节点的中心。3.各基
7、函数取相同的扩展常数。各基函数取相同的扩展常数。4.确定权值可解线性方程组:确定权值可解线性方程组:设第设第j j 个隐节点在第个隐节点在第i i个样本的输出为:个样本的输出为:可矩阵表示:可矩阵表示:,若若R R可逆,则解为可逆,则解为根据根据MicchelliMicchelli定理可得,如果隐节点激活函数采用定理可得,如果隐节点激活函数采用径向基函数,且径向基函数,且 各不相同,则线性方程组各不相同,则线性方程组有唯一解。有唯一解。RBF网络输出网络输出本讲稿第八页,共二十九页举例:举例:RBF网络实现函数逼近网络实现函数逼近 1.1.问题的提出:假设如下的输入输出样本,输入向量为问题的提
8、出:假设如下的输入输出样本,输入向量为-1 1-1 1区区间上等间隔的数组成的向量间上等间隔的数组成的向量P,P,相应的期望值向量为相应的期望值向量为T T。P=-1:0.1:1;T=-0.9602-0.5770-0.0729 0.3771 0.6405 0.6600 0.4609 0.1336-0.2013-0.4344-0.5000-0.3930-0.1647 0.0988 0.3072 0.3960 0.3449 0.1816-0.0312-0.2189-0.3201;%以输入向量为横坐标,期望值为纵坐标,绘制训练用样本的数据点。以输入向量为横坐标,期望值为纵坐标,绘制训练用样本的数据点
9、。figure;plot(P,T,+)title(训练样本训练样本)xlabel(输入矢量输入矢量P)ylabel(目标矢量目标矢量T)grid on%目的是找到一个函数能够满足这目的是找到一个函数能够满足这21个数据点的输入个数据点的输入/输出关系,其中一个方法是通过构输出关系,其中一个方法是通过构建径向基函数网络来进行曲线拟合建径向基函数网络来进行曲线拟合本讲稿第九页,共二十九页2.2.网络设计:设计一个径向基函数网络,网络有两层,隐含层为径向基神经网络设计:设计一个径向基函数网络,网络有两层,隐含层为径向基神经元,输出层为线性神经元。元,输出层为线性神经元。p=-3:0.1:3;a=ra
10、dbas(p);figure;plot(p,a)title(径向基传递函数径向基传递函数)xlabel(输入输入p)ylabel(输出输出a)grid on%每一层神经元的权值和阈值都与径向基函数的位置和宽度有关系,输出层的线性神经元将这些径向基函每一层神经元的权值和阈值都与径向基函数的位置和宽度有关系,输出层的线性神经元将这些径向基函数的权值相加。如果隐含层神经元的数目足够,每一层的权值和阈值正确,那么径向基函数网络就完全数的权值相加。如果隐含层神经元的数目足够,每一层的权值和阈值正确,那么径向基函数网络就完全能够精确的逼近任意函数。能够精确的逼近任意函数。a2=radbas(p-1.5);
11、a3=radbas(p+2);a4=a+a2*1+a3*0.5;figure;plot(p,a,b-,p,a2,b-,p,a3,b-,p,a4,m-);title(径向基传递函数之和径向基传递函数之和)xlabel(输入输入p)ylabel(输出输出a)grid on%应用应用newb()函数可以快速构建一个径向基神经网络,并且网络自动根据输入向量和期望值进行调整,从而进行函数可以快速构建一个径向基神经网络,并且网络自动根据输入向量和期望值进行调整,从而进行函数逼近,预先设定均方差精度为函数逼近,预先设定均方差精度为eg以及散布常数以及散布常数sc。eg=0.02;sc=1;net=newrb
12、(P,T,eg,sc);本讲稿第十页,共二十九页3.网络测试:将网络输出和期望值随输入向量变化的曲网络测试:将网络输出和期望值随输入向量变化的曲线绘制在一张图上,就可以看出网络设计是否能够做线绘制在一张图上,就可以看出网络设计是否能够做到函数逼近。到函数逼近。figure;plot(P,T,+);xlabel(输入输入);X=-1:0.01:1;Y=sim(net,X);hold on;plot(X,Y);hold off;legend(目标目标,输出输出)grid on本讲稿第十一页,共二十九页分类问题分类问题低维空间:线性不可分低维空间:线性不可分 高维空间:线性可分高维空间:线性可分 空
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 绝对 经典 神经网络 精选 文档
限制150内