前向人工神经网络敏感性研究.ppt
《前向人工神经网络敏感性研究.ppt》由会员分享,可在线阅读,更多相关《前向人工神经网络敏感性研究.ppt(38页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、前向人工神经网络敏感性研究一一.引言引言 1.前向神经网络前向神经网络(FNN)FNN)介绍介绍神经元离散型:自适应线性元(Adaline)连续型:感知机(Perceptron)神经网络离散型:多层自适应线性网(Madaline)连续型:多层感知机(BP网或MLP)问题问题硬件精度对权的影响环境噪音对输入的影响动机动机参数的扰动对网络会产生怎样影响?如何衡量网络输出偏差的大小?2.研究提出研究提出建立网络输出与网络参数扰动之间的关系分析该关系,揭示网络的行为规律量化网络输出偏差3.研究内容研究内容指导网络设计,增强网络抗干扰能力度量网络性能,如容错和泛化能力研究其它网络课题的基础,如网络结构的
2、裁剪和参数的挑选等4.研究意义研究意义1.Madaline的敏感性n维几何模型(超球面)M.Stevenson,R.Winter,andB.Widrow,“SensitivityofFeedforwardNeuralNetworkstoWeightErrors,”IEEETrans.onNeural,Networks,vol.1,no.1,1990.统计模型(方差)S.W.Pich,“TheSelectionofWeightAccuraciesforMadalines,”IEEETrans.onNeuralNetworks,vol.6,no.2,1995.二二.研究纵览研究纵览(典型(典型方法
3、和方法和文献文献)分析方法(偏微分)S.Hashem,“SensitivityAnalysisforFeed-ForwardArtificialNeuralNetworkswithDifferentiableActivationFunctions”,Proc.ofIJCNN,vol.1,1992.统计方法(标准差)J.Y.Choi&C.H.Choi,“SensitivityAna-lysisofMultilayerPerceptronwithDiffer-entiableActivationFunctions,”IEEETrans.onNeuralNetworks,vol.3,no.1,199
4、2.2.MLP的敏感性输入属性筛选J.M.Zurada,A.Malinowski,S.Usui,“PerturbationMethodforDeletingRedundantInputsofPerceptronNetworks”,Neurocomputing,vol.14,1997.网络结构裁减A.P.Engelbrecht,“ANewPruningHeuristicBasedonVarianceAnalysisofSensitivityInformation”,IEEETrans.onNeuralNetworks,vol.12,no.6,2001.3.敏感性的应用J.L.Berniereta
5、l,“AQuantitiveStudyof FaultTolerance,NoiseImmunityandGeneralizationAbilityofMLPs,”Neural Computation,vol.12,2000.容错和泛化问题三三.研究方法研究方法1.自底向上自底向上方法方法单个神经元整个网络2.概率统计方法概率统计方法概率率(离散型)均值(连续型)3.n-维几何模型维几何模型超矩形的顶点(离散型)超矩形体(连续型)四四.已获成果(代表性论文)已获成果(代表性论文)敏感性分析:“SensitivityAnalysisofMultilayerPercep-trontoInputan
6、dWeightPerturbations,”IEEETrans.onNeuralNetworks,vol.12,no.6,pp.1358-1366,Nov.2001.敏感性量化:“AQuantifiedSensitivityMeasureforMulti-layerPerceptrontoInputPerturbation,”NeuralComputation,vol.15,no.1,pp.183-212,Jan.2003.隐层节点的裁剪(敏感性应用):“HiddenNeuronPruningforMultilayerPerceptronsUsingSensitivityMeasure,”Pr
7、oc.ofIEEEICMLC2002,pp.1751-1757,Nov.2002.输入属性重要性的判定(敏感性应用):“DeterminingtheRelevanceofInputFeaturesforMultilayerPerceptrons,”Proc.ofIEEESMC2003,Oct.2003.五五.未来工作未来工作进一步完善已有的结果进一步完善已有的结果,使之更加实用使之更加实用 放松限制条件 扩大分析范围 精确量化计算进一步应用所得的结果进一步应用所得的结果,解决实际问题解决实际问题探索新方法探索新方法,研究新类型的网络研究新类型的网络结束谢谢各位!谢谢各位!Effectsofin
8、put&weightdeviationsonneuronssensitivitySensitivity increases with input and weigh deviations,but the increase has an upper bound.EffectsofinputdimensiononneuronssensitivityThere exists an optimal value for the dimension of input,which yields the highest sensitivity value.Effectsofinput&weightdeviat
9、ionsonMLPssensitivitySensitivity of an MLP increases with the input and weight deviations.EffectsofthenumberofneuronsinalayerSensitivityofMLPs:n-2-2-1|1n10tothedimensionofinput.SensitivityofMLPs:2-n-2-1|1n10tothenumberofneuronsinthe1stlayer.SensitivityofMLPs:2-2-n-1|1n10tothenumberofneuronsinthe2ndl
10、ayer.There exists an optimal value for the number of neurons in a layer,which yields the highest sensitivity value.The nearer a layer to the output layer is,The more effect the number of neurons in the layer has.EffectsofthenumberoflayersSensitivityofMLPs:2-1,2-2-1,.,2-2-2-2-2-2-2-2-2-2-1tothenumber
11、oflayers.Sensitivity decreases with the number increasing,and the decrease almost levels off when the number becomes large.Sensitivityoftheneuronswith2-dimensionalinputSensitivityoftheneuronswith3-dimensionalinputSensitivityoftheneuronswith4-dimensionalinputSensitivityoftheneuronswith5-dimensionalin
12、putSensitivityoftheMLPs:2-2-1,2-3-1,2-2-2-1Simulation1(FunctionApproximation)ImplementanMLPtoapproximatethefunction:whereImplementationconsiderationsTheMLParchitectureisrestrictedto2-n-1.TheconvergenceconditionisMES-goal=0.01&Epoch105.Thelowesttrainablenumberofhiddenneuronsisn=5.Thepruningprocessess
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工 神经网络 敏感性 研究
限制150内