2022年BP神经网络matlab实例简单而经典 .pdf
《2022年BP神经网络matlab实例简单而经典 .pdf》由会员分享,可在线阅读,更多相关《2022年BP神经网络matlab实例简单而经典 .pdf(7页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、p=p1;t=t1; pn,minp,maxp,tn,mint,maxt=premnmx(p,t); %原始数据归一化net=newff(minmax(pn),5,1,tansig,purelin,traingdx);%设置网络 ,建立相应的BP 网络net.trainParam.show=2000; % 训练网络net.trainParam.lr=0.01; net.trainParam.epochs=100000; net.trainParam.goal=1e-5; net,tr=train(net ,pn,tn); %调用 TRAINGDM算法训练BP网络pnew=pnew1; pnew
2、n=tramnmx(pnew,minp,maxp); anewn=sim(net,pnewn); %对 BP 网络进行仿真anew=postmnmx(anewn,mint,maxt); %还原数据y=anew; 1、BP 网络构建(1)生成 BP 网络(, 1 2.,1 2.,)netnewffPR S SSNlTFTFTFNlBTF BLF PFPR:由R维的输入样本最小最大值构成的2R维矩阵。 1 2.S SSNl:各层的神经元个数。1 2.TFTFTFNl:各层的神经元传递函数。BTF:训练用函数的名称。(2)网络训练, (, ,)net tr Y E PfAftrain net P T
3、 Pi Ai VV TV(3)网络仿真, (,)Y PfAf E perfsim net P Pi Ai Ttansig,purelin,trainrpBP 网络的训练函数训练方法训练函数梯度下降法traingd 有动量的梯度下降法traingdm 自适应 lr 梯度下降法traingda 自适应 lr 动量梯度下降法traingdx 弹性梯度下降法trainrp Fletcher-Reeves共轭梯度法traincgf Ploak-Ribiere 共轭梯度法traincgp 名师归纳总结 精品学习资料 - - - - - - - - - - - - - - -精心整理归纳 精选学习资料 -
4、- - - - - - - - - - - - - - 第 1 页,共 7 页 - - - - - - - - - Powell-Beale 共轭梯度法traincgb 量化共轭梯度法trainscg 拟牛顿算法trainbfg 一步正割算法trainoss Levenberg-Marquardt trainlm BP 网络训练参数训练参数参数介绍训练函数net.trainParam.epochs最大训练次数(缺省为10)traingd 、 traingdm 、 traingda、traingdx 、trainrp、 traincgf、traincgp、 traincgb、 trainscg、
5、trainbfg 、trainoss、trainlm net.trainParam.goal训练要求精度(缺省为0)traingd 、 traingdm 、 traingda、traingdx 、trainrp、 traincgf、traincgp、 traincgb、 trainscg、trainbfg 、trainoss、trainlm net.trainParam.lr学习率(缺省为0.01)traingd 、 traingdm 、 traingda、traingdx 、trainrp、 traincgf、traincgp、 traincgb、 trainscg、trainbfg 、tr
6、ainoss、trainlm net.trainParam.max_fail 最大失败次数(缺省为5)traingd 、 traingdm 、 traingda、traingdx 、trainrp、 traincgf、traincgp、 traincgb、 trainscg、trainbfg 、trainoss、trainlm net.trainParam.min_grad 最 小 梯 度 要 求 ( 缺 省 为1e-10)traingd 、 traingdm 、 traingda、traingdx 、trainrp、 traincgf、traincgp、 traincgb、 trainscg
7、、trainbfg 、trainoss、trainlm net.trainParam.show显示训练迭代过程(NaN 表示不显示,缺省为25)traingd 、 traingdm 、 traingda、traingdx 、trainrp、 traincgf、traincgp、 traincgb、 trainscg、trainbfg 、trainoss、trainlm net.trainParam.time 最大训练时间(缺省为inf )traingd 、 traingdm 、 traingda、traingdx 、trainrp、 traincgf、traincgp、 traincgb、 t
8、rainscg、trainbfg 、trainoss、trainlm net.trainParam.mc 动量因子(缺省0.9)traingdm 、traingdx net.trainParam.lr_inc 学习率lr增长比(缺省为1.05)traingda、traingdx net.trainParam.lr_dec 学习率 lr 下降比 (缺省为 0.7) traingda、traingdx net.trainParam.max_perf_inc 表现函数增加最大比(缺省为 1.04)traingda、traingdx net.trainParam.delt_inc 权 值 变 化增 加
9、量 ( 缺省为1.2)trainrp 名师归纳总结 精品学习资料 - - - - - - - - - - - - - - -精心整理归纳 精选学习资料 - - - - - - - - - - - - - - - 第 2 页,共 7 页 - - - - - - - - - net.trainParam.delt_dec 权 值 变 化减 小量 ( 缺省为0.5)trainrp net.trainParam.delt0 初始权值变化 (缺省为0.07) trainrp net.trainParam.deltamax 权 值 变 化最 大值 ( 缺省为50.0)trainrp net.trainPa
10、ram.searchFcn 一维线性搜索方法(缺省为srchcha)traincgf 、traincgp、 traincgb、trainbfg 、trainoss net.trainParam.sigma 因为二次求导对权值调整的影响参数(缺省值5.0e-5)trainscg net.trainParam.lambda Hessian 矩阵不确定性调节参数(缺省为5.0e-7)trainscg net.trainParam.men_reduc 控制计算机内存/速度的参量,内存较大设为1,否则设为 2(缺省为1)trainlm net.trainParam.mu 的初始值(缺省为0.001)tr
11、ainlm net.trainParam.mu_dec 的减小率(缺省为0.1)trainlm net.trainParam.mu_inc 的增长率(缺省为10)trainlm net.trainParam.mu_max 的最大值(缺省为1e10)trainlm 2、BP 网络举例举例 1、%traingd clear; clc; P=-1 -1 2 2 4;0 5 0 5 7; T=-1 -1 1 1 -1; %利用 minmax函数求输入样本范围net = newff(minmax(P),5,1,tansig,purelin,trainrp); net.trainParam.show=50
12、;% net.trainParam.lr=0.05; net.trainParam.epochs=300; net.trainParam.goal=1e-5; net,tr=train(net,P,T); net.iw1,1%隐层权值net.b1%隐层阈值net.lw2,1%输出层权值net.b2%输出层阈值sim(net,P) 举例 2、利用三层 BP 神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。样本数据:名师归纳总结 精品学习资料 - - - - - - - - - - - - - - -精心整理归纳 精选学习资料 - - - - - - - - - - - - - -
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 2022年BP神经网络matlab实例简单而经典 2022 BP 神经网络 matlab 实例 简单 经典
限制150内