《BP人工神经网络的基本原理、模型与实例.ppt》由会员分享,可在线阅读,更多相关《BP人工神经网络的基本原理、模型与实例.ppt(26页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、BP人工神经网络的基本原理、模型与实例本本讲大大纲:人工神经网络的基本概念误差反向传播(BP)神经网络8.1人工神人工神经网网络的基本概念的基本概念8.1人工神人工神经网网络的基本概念的基本概念单极sigmoid函数8.1人工神人工神经网网络的基本概念的基本概念双曲函数8.1人工神人工神经网网络的基本概念的基本概念增加激活阈值后的神经元模型输入变量:x1连接权重:w1激活函数:f()w1x1f()w1x1-1小小练习:请你算一算,当初始输入、权重和激活阈值为如下数值时,该神经元的净输入和输出分别是多少?x1w110.20.48.1人工神人工神经网网络的基本概念的基本概念当输入增加时的神经元模型
2、输入变量:x1,x2连接权重:w1,w2激活函数:f()w1x1f()w1x1+w2x2-1w2x2小小练习:请你算一算,当初始输入、权重和激活阈值为如下数值时,该神经元的净输入和输出分别是多少?x1x2w1w2100.20.40.48.1人工神人工神经网网络的基本概念的基本概念w1w2wmxmx2x1.f()-18.1人工神人工神经网网络的基本概念的基本概念当多个神经元组合起来时,人工神经网络的总体结构如下:输入层隐 藏 层-1-1-1 f f.xmx2x1.y1y2yn f f f f f f f-1输出层.8.1人工神人工神经网网络的基本概念的基本概念当层数增加时的神经元模型输入变量:x
3、1,x2连接权重:w1,w2激活函数:f()w1x1f()w1x1+w2x2-1w2x2小小练习:请你算一算,当初始输入、权重和激活阈值为如下数值时,该神经元的净输入和输出分别是多少?x1x2w1w2100.20.40.48.1人工神人工神经网网络的基本概念的基本概念x1x2x3w14w15w24w25w34w35w46w564561010.2-0.30.40.1-0.50.2-0.3-0.20.4-0.2-0.1123456x1x3x2w14w15w24w25w34w35w46w56456初始输入、权重和偏倚值小小练习:请你算一算,各节点的净输入和净输出分别是多少?8.1人工神人工神经网网络
4、的基本概念的基本概念单元 j净输入 Ij净输出 Oj123456x1x3x2w14w15w24w25w34w35w46w56456净输入和输出的计算-0.70.10.3320.525-0.1050.47440.2+0-0.5-0.4=-0.75-0.3+0+0.2+0.2=0.16-(0.3)(0.332)-(0.2)(0.525)+0.1=-0.1051/(1+e0.7)=0.3321/(1+e-0.1)=0.5251/(1+e0.105)=0.4748.1人工神人工神经网网络的基本概念的基本概念思考:思考:如果想要如果想要让神神经网网络的期望的期望输出尽可能接近出尽可能接近“1”这个个数数
5、值,请问应该调整网整网络的哪些参数?的哪些参数?8.1人工神人工神经网网络的基本概念的基本概念123456x1x3x2w14w15w24w25w34w35w46w56456x1x2x3w14w15w24w25w34w35w46w564561010.192-0.3060.40.1-0.5080.194-0.261-0.1380.408-0.194-0.218初始输入、权重和偏倚值小小练习:若将各权值与阈值换成以上各值,各节点的净输入和净输出分别是多少?8.1人工神人工神经网网络的基本概念的基本概念单元 j净输入 Ij净输出 Oj123456x1x3x2w14w15w24w25w34w35w46w
6、56456净输入和输出的计算-0.5220.0820.62760.4795-0.18420.545940.192+0-0.306-0.408=-0.5225-0.306+0+0.194+0.194=0.0826-(0.3)(0.6276)-(0.2)(0.4795)+0.1=-0.18421/(1+e-0.522)=0.62761/(1+e-0.1)=0.47951/(1+e-0.1842)=0.5459与0.474相比相比更接近更接近“1”了了8.1人工神人工神经网网络的基本概念的基本概念神神经网网络运算的运算的难点之一:点之一:如何高效地确定各个连接权值W与激活阈值 自动确定权值与阈值的过
7、程称为神神经网网络学学习(训练)。8.1人工神人工神经网网络的基本概念的基本概念神经网络的学习方式:监督学督学习非监督学习激励学习8.2 误差反向差反向传播播(BP)神神经网网络反向传播算法分二步进行,即正向正向传播和反向播和反向传播播。1正向传播 输入的样本从输入层经过隐单元一层一层进行处理,通过所有的隐层之后,则传向输出层;在逐层处理的过程中,每一层神经元的状态只对下一层神经元的状态产生影响。在输出层把现行输出和期望输出进行比较,如果现行输出不等于期望输出,则进入反向传播过程。2反向传播 反向传播时,把误差信号按原来正向传播的通路反向传回,并对每个隐层的各个神经元的权系数进行修改,以望误差
8、信号趋向最小。8.2 误差反向差反向传播播(BP)神神经网网络8.2 误差反向差反向传播播(BP)神神经网网络单元 j计算误差Errj123456x1x3x2w14w15w24w25w34w35w46w56456每个节点输入端误差Errj的计算Err4=-0.0087Err5=-0.00650.3320.525Err6=0.13111-0.47440.332(1-0.332)(0.1311)(-0.3)50.525(1-0.525)(0.1311)(-0.2)60.474(1-0.474)(1-0.474)-0.0087-0.00650.13110.1311 w460.1311 w568.2
9、误差反向差反向传播播(BP)神神经网网络权重或偏差新值w46-0.3+(0.9)(0.1311)(0.332)=-0.261w56-0.2+(0.9)(0.1311)(0.525)=-0.138w140.2+(0.9)(-0.0087)(1)=0.192w15-0.3+(0.9)(-0.0065)(1)=-0.306w240.4+(0.9)(-0.0087)(0)=0.4w250.1+(0.9)(-0.0065)(0)=0.1w34-0.5+(0.9)(-0.0087)(1)=-0.508w350.2+(0.9)(-0.0065)(1)=0.1946-0.1+(0.9)(0.1311)(-1)=-0.2185-0.2+(0.9)(-0.0065)(-1)=-0.19440.4+(0.9)(-0.0087)(-1)=0.408权重和偏倚更新的计算参考资料1.(美)韩家炜,(美)坎伯(Kamber,M.),等.数据挖掘:概念与技术,第3版M.机械工业出版社,2012.2.张兴会.数据仓库与数据挖掘技术M.清华大学出版社,2011.此此课件下件下载可自行可自行编辑修改,修改,仅供参考!供参考!感感谢您的支持,我您的支持,我们努力做得更好!努力做得更好!谢谢!
限制150内