神经网络与回归方法分析(数学建模).doc

收藏

编号:2615897    类型:共享资源    大小:1.03MB    格式:DOC    上传时间:2020-04-24
8
金币
关 键 词:
神经网络 回归 方法 法子 分析 数学 建模
资源描述:
^` 多元回归与神经网络的应用 摘要 本文主要是通过整理分析数据,以得出题目中所给出的与的函数关系.由于数据并不是很充足,我们选择了所有数据为样本数据和部分数据为验证数据。我们首先采用了多元回归方法,由于数据之间并没有明显的线性或者其它函数关系,模型很难选择,得到的结论对于来说残值偏大,效果很差,于是我们引用了BP神经网络,经过选择合适的参数,多次训练得到合适的网络,拟合得到了相对精确的结果,并进行了验证,最后将三种模型进行了对比。 关键字: 多元线性回归 多元非线性回归 最小二乘法 牛顿法 BP神经网络 1.问题重述 现实生活中,由于客观事物内部规律的复杂性及人们认识程度的限制,人们常收集大量的数据,基于数据的统计分析建立合乎基本规律的数学模型,然后通过计算得到的模型结果来解决实际问题.回归分析法和神经网络是数学建模中常用于解决问题的有效方法.本文要解决的主要问题是:通过对所给数据的分析,分别用回归方法或神经网络来确立与之间的函数关系,并验证结论。 2.问题分析 题目要求我们使用神经网络或回归方法来做相关数据处理,相比较之下,我们对回归方法比较熟悉,所以首先选取了回归方法。得到相关函数,并分析误差,再利用神经网络模型建立合理的网络,进行误差分析并和前者比较,得出合理的结论。 3.符号说明 的自变量个数 回归系数 残差 Q 偏差平方和 分别为两个变量序列的均值 第一层网络与第二层网络之间的权值 第二层神经元的阈值 第二层与第三层之间的权值 第三层神经元的阈值 第二层与第三层权值调整量 第二层与第三层阈值调整量 第一层与第二层权值调整量 第一层与第二层阈值调整量 Logsig函数 Tansig函数 偏差平方和 观察值 回归值 估计参数 回归平方和 (p-1)个变量所引起的回归平方和(即除去) 偏回归平方和 4.模型建立与求解 4.1多元回归方法 它是研究某个变量与另一些变量的函数关系.主要内容是从一组样本数据出发,通过合理分析得到正确的函数关系,建立相应的表达式,并通过相关软件处理得到相应的系数。 4.1.1多元线性回归方法 1.回归模型的一般形式为:Y= 其中是待估计参数,e是随机误差即残差。残差服从均数为0,方差为的正态分布。这就是线性回归的数学模型。 ,,,, 那么多元线性回归数学模型可也写成矩阵形式: 其中的分量是独立的。 2.参数的最小二乘估计.为了估计参数,我们采用最小二乘估计法.设分别是参数的最小二乘估计,则回归方程为 由最小二乘法知道,应使得全部观察值与回归值的偏差平方和Q达到最小,即使 =最小 所以Q是的非负二次式,最小值一定存在。根据微积分中的极值原理,应是下列正规方程组的解: 显然,正规方程组的系数矩阵是对称矩阵,用A来表示,则,则其右端常数项矩阵B亦可以用矩阵X和Y来表示:,所以可以得到回归方程的回归系数: 3.由于利用偏回归方程和可以衡量每个变量在回归中所起的作用大小(即影响程度),设是p个变量所引起的回归平方和,是(p-1)个变量所引起的回归平方和(即除去),则偏回归平方和为 就是去掉变量后,回归平方和所减少的量。 4.建立模型 5. 模型的求解 我们通过MATLAB,求得其回归系数,并最终得到与的函数关系: 同时通过MATLAB可以得出与的误差结果如下: 由此,我们可得出结论,采用多元线性回归得出的函数关系对于残差太大,效果很差,对于的拟合也并不是很完美。 4.1.2非线性回归方法 1.数据标准化 我们选用的是非线性模型LSE的Gauss-Newton算法: 采用Z-score标准化法,即对序列进行变换: , (1其中,,,则构成新序列,均值为0,方差为1. 。 首先考虑单参数的非线性回归模型: 其残差平方和函数为 要使取极小值,则令其一阶导数为0,来求.一个近似的方法是用Taylor近似展开来代替。设的初值为,则在点附近函数有近似Taylor展式: 可以求的其导数值,简记为: 则 即为线性回归 的残差和.上式被称为拟线性模型.其最小二乘估计是 如果我们有的初值,就可以得到另一个新值,进而可以得到一个序列,写出一个迭代表达式,即与的关系。若在迭代过程中有=,即的一阶导数为0,此时取得一个极值。 为了避免迭代时间过长或迭代来回反复,可以引入进步长控制函数, 由计算机程序根据误差自动调整.上述算法一般称为Gauss-Newton算法. 2.建立非线性回归模型:采用多元二次多项式函数 设函数: 通过Gauss-Newton算法和MATLAB计算最终得出以下结果: 通过MATLAB编写相应程序所得结果如下: 的残差图 由图可以明显看出误差很大,拟合效果不好。综合多元非线性和多元线性这两种模型,我们可以发现并不适合这两种模型,模拟相对较好,但误差并没有足够小,不再我们的预期效果之内。于是我们采用了BP神经网络。 4.2神经网络 4.2.1模型的原理 BP (Back Propagation)神经网络是一种多层前馈神经网络。其由输入层、中间层、输出层组成的阶层型神经网络,中间层可扩展为多层。相邻层之间各神经元进行全连接,而每层各神经元之间无连接,网络按有教师示教的方式进行学习,当一对学习模式提供给网络后,各神经元获得网络的输入响应产生连接权值(Weight),隐含层神经元将传递过来的信息进行整合,通常还会在整合过程添加一个阈值,这是模仿生物学中神经元必须达到一定阈值才会触发的原理。输入层神经元数量由输入样本的维数决定,输出层神经元数量由输出样本的维数决定,隐藏层神经元合理选择。然后按减小希望输出与实际输出误差的方向,从输出层经各中间层逐层修正各连接权,回到输入层。此过程反复交替进行,直至网络的全局误差趋向给定的极小值,即完成学习的过程。BP网络的核心是数学中的“负梯度下降”理论,即BP的误差调整方向总是沿着误差下降最快的方向进行。 . BP神经网络模型型 相关传递函数(或激励函数): 阈值型(一般只用于简单分类的MP模型中) 线性型(一般只用于输入和输出神经元) S型(常用于隐含层神经元) 或 通常还会在激励函数的变量中耦合一个常数以调整激励网络的输出幅度。 4.2.2 模型的建立与求解 步骤1、准备训练网络的样本 我们此次的BP网络是一个4输入2输出的网络,如下表所示: 序号 X1 X2 X3 X4 Y1 Y2 1 8 10 0.5 14 41.32 14.3 2 8 14 0.7 15 725.67 0.0053 3 8 18 1 16 113.78 12.14 4 8 22 1.2 17 867.16 0.005 5 8 26 1.5 18 905.63 0.003 6 10 10 0.7 16 5.52 71.68 7 10 14 1 17 100.4 1 8 10 18 1.2 18 329.85 0.42 9 10 22 1.5 14 24.02 57.32 10 10 26 0.5 15 191.13 3.89 11 13 10 1 18 3.88 77.4 12 13 14 1.2 14 36.83 19.57 13 13 18 1.5 15 217.93 9.06 14 13 22 0.5 16 258.35 0.0041 15 13 26 0.7 17 398.46 0.0058 16 15 10 1.2 15 2.24 85.32 17 15 14 1.5 16 29.24 15.74 18 15 18 0.5 17 296.98 7 19 15 22 0.7 18 207.52 0.036 20 15 26 1 14 204.86 0.706 21 18 10 1.5 17 3.16 85.5 22 18 14 0.5 18 15.92 36.32 23 18 18 0.7 14 49.4 29.52 24 18 22 1 15 149.6 0.51 25 18 26 1.2 16 255 0.05 26 8 28 1.2 18 69.3 86.32 27 8 20 1 18 58.9 81.9 28 8 17 0.7 18 125.5 98.39 29 8 15 0.5 18 85.1 95.2 30 8 13 1.5 18 115.3 97.75 31 10 28 1 18 15.5 35.44 32 10 20 0.7 18 18.8 42.4 33 10 17 0.5 18 17.3 41.98 34 10 15 1.5 18 66.4 83.58 35 10 13 1.2 18 58.6 82.52 36 13 28 0.7 18 18.1 42.48 37 13 20 0.5 18 21.8 50.7 38 13 17 1.5 18 77.1 87.58 39 13 15 1.2 18 62 82.24 40 13 13 1 18 36.2 66.06 41 15 28 0.5 18 26.9 62.04 42 15 20 1.5 18 135.3 98.15 43 15 17 1.2 18 61.3 84.26 44 15 15 1 18 36.3 68.88 45 15 13 0.7 18 17.7 45.72 46 18 28 1.5 18 184.9 99.2 47 18 20 1.2 18 80.5 90.58 48 18 17 1 18 41.9 69.6 49 18 15 0.7 18 21.2 48.84 50 18 13 0.5 18 8 22.74 步骤2、确定网络的初始参数 参数 数值 最大训练次数 50000 隐含层神经元数量 8 网络学习速率 0.033 训练的目标误差 步骤3、初始化网络权值和阈值 因为是4个输入因子8个隐含层神经元,则第一层与第二层之间的权值 为 的随机数矩阵: [-0.044 0.325 -0.099 0.149 -0.031 0.180 0.332 0.350 0.2393 0.364 0.206 0.187 0.1475 0.248 0.394 0.322 -0.005 0.191 0.163 0.269 0.1475 0.307 0.139 0.192 -0.026 0.339 0.300 0.023 -0.072 0.394 0.013 0.233] 神经网络的阈值是用来激活神经元而设置的一个临界值,有多少个神经元就会有多少个阈值,则第二层神经元的阈值为 的矩阵: [-0.058 0.212 0.230 0.264 0.345 0.391 0.284 0.190] 同理,第二层与第三层之间的权值 为 的随机数矩阵: [0.364 -0.091 0.331 0.322 0.176 -0.084 0.081 0.144 0.190 -0.039 0.142 0.004 0.214 0.20 -0.075 -0.003] 同理,第三层阈值 为 的矩阵: [-0.038 0.002] 步骤4、计算第一层神经元的输入与输出 假设第一层神经元中放置的是线性函数,所以网络第一层输入和输出都等于实际输入样本的值, 所以第一层输出值 。 但是,因为输入和输出样本的量纲以及量级都不相同,所以须进行归一化处理。 步骤5、计算第二层神经元的输入 对于第二层,神经元的输入是第一层所有的神经元的值与阈值的和,即 ,其中 是一个全为1的矩阵,所以 是一个 的矩阵,很容易得出。 步骤6、计算第二层神经元的输出 假设第二层神经元激励函数为单极S型函数,即为 ,所以第二层神经元的输出 .所以第二层输出也是一个 的矩阵。 步骤7、计算第三层的输入和输出 第三层输入与第二层输入相似,即 ,所以 是一个 的矩阵。 步骤8、计算能量函数 能量函数,即网络输出与实际输出样本之间的误差平方和,其目的是在达到预定误差就可以停止训练网络。 是归一化处理后的实际输出样本。则: 步骤9、计算第二层与第三层之间的权值和阈值调整量 权值调整量: , 是一个 的矩阵 [-33.644 -39.7786 -38.55 -40.2511 -41.395 -41.33 -37.804 -38.256 -11.433 -11.8610 -12.38 -12.077 -12.935 -13.32 -12.509 -12.633] 同理,阈值调整量: , 是一个 矩阵: [-67.628 -22.343] 步骤10、计算第一层与第二层之间的权值和阈值调整量 因为对于传递函数,有 , 故权值调整量: 所以 是一个 的矩阵: -0.183 0.482 0.710 -3.319 0.056 -0.135 -0.193 0.769 -0.099 0.547 0.615 -2.893 -0.138 0.635 0.438 -2.696 -0.072 0.132 0.615 -1.432 0.0764 -0.39 0.320 0.728 -0.062 0.251 -0.066 -0.730 -0.101 0.323 0.1105 -1.263 同理,阈值调整量: 所以 为 的矩阵: [-7.113 1.674 -6.119 -5.1014 -3.945 0.2310 -0.9220 -2.335] 步骤11 计算调整之后的权值和阈值 此算法是让网络沿着 变化量最小的方向搜索,所以经过一段时间的训练之后,神经网络会慢慢蜷缩收敛,直到完全拟合成目标输出值或接近目标输出值。 下面是y1的神经网络训练动态图: 步骤12 还原网络输出的值 因为在训练网络时,将输入和输出的样本经过了归一化的处理,所以要将 还原成原始数据的量级。 根据此算法,我们编出了matlab程序,最终拟合结果如下: 可以看出结果并不理想,相对于回归模型,误差并没有减小。 4.2.3模型的修正 由于模型的参数没有选择好,隐含层数量不足,模拟的效果并不好,于是我们重新建立了神经网络模型。 最大训练次数 5000 学习速率 0.05 隐含神经元层数 3 训练目标误差 第一层隐含神经元个数 8 第二层隐含神经元个数 12 第三层隐含神经元个数 8 第一层隐含神经元传递函数 Logsig函数 第二层隐含神经元传递函数 Tansig函数 第二层隐含神经元传递函数 Logsig函数 通过编写MATLAB工具箱程序,训练得到了下面的结果: 由此得到的结果从视觉上非常完美。 我们用训练得到的网络验证了全部数据并提取了误差: 可以得到只有几个数据不是那么精确。 评价与总结 我们抽取了部分数据,分别检验了回归模型和通过神经网络算法训练得到的网络,得到了误差,在此我们进行了具体的对比: Y1各种方法的误差如下表所示: 多元线性回归 多元非线性回归 神经网络 -85.0904821787169 -95.61931925 3.29699779745964 424.792490319265 544.5753159 1.03267427223443 -306.965839850488 -118.2241891 1.41849261959817 387.691377753137 591.0004461 1.40769147165338 380.142282029398 578.5609411 -0.344012787002839 -199.616107238563 -80.20782097 -1.45635726638154 -129.642502715347 -36.23732595 -0.741747572508700 128.499371703981 149.0573092 -2.38062294681544 -154.070310811591 -285.4248746 -0.983439225507443 -86.1574120256765 -81.42055792 -0.0768780510191220 113.101241465220 -20.57910932 1.64258269795374 97.5809506531405 -109.527153 -4.60593752005365 21.7785166473820 20.66334204 0.315506918113215 -75.7492520794316 97.97765872 0.0213160796229772 160.434115149431 193.9322939 -7.79320436823031 45.4330777517973 -48.75028985 0.962562717276339 -89.5074215609946 -72.65979483 -0.193131496568324 37.1321320006323 231.9745218 -1.98561499149395 131.160156045192 98.35915699 -31.6251837157761 153.754072389387 -32.9530268 -2.43601124801970 Y2各种方法的误差如下表所示: 多元线性回归 多元非线性回归 神经网络 -30.3987049539152 6.152597099 0.0872585163590145 -12.9490793890884 -19.38873073 -0.0205934880545422 10.7510720967549 -21.49794239 0.0911796316330200 -11.0095339782298 -44.87957022 0.118073363295188 -39.8078620699404 -59.12548187 -0.0973856112318899 51.2514250166275 32.2781036 -0.201480587958699 -28.5404648955414 -52.64580805 -0.250510979385689 -56.9811916534564 -64.47243588 -0.328652838291651 37.4678862524014 40.39669528 -0.0458938130025786 4.89850695510008 11.68747331 -0.0897937770061654 -7.32940262702650 3.55897192 -3.54122679937848 -19.8734750618800 -3.304613092 -0.984659461024723 -11.7901706398783 -28.05852475 0.0509553283729591 19.9219390377847 -12.39364672 -0.0234371252933647 -5.39651527410106 -23.63857455 -0.288405093538314 40.7565778922047 42.43752124 0.467194393960085 -30.9074590838061 -41.38639041 -0.114443773936806 12.1920784918839 -25.40561238 -0.0272714852628626 -38.3271965029317 -43.61624021 -0.986235253808523 -18.7163800397156 5.022890952 -0.993467108071047 从对比中我们可以得出,无论是通过模拟的视觉效果上还是最后的误差对比中,我们可以明显的得出,神经网络相对于回归模型误差小,得到的结果更加的精确。而回归模型中非线性相对于线性拟合的效果更好一些,对于和,不管是哪种模型,对于y2的拟合效果要比y1更精确。神经网络具有很强的鲁棒性、记忆能力、非线性映射能力以及强大的自学习能力,因此有很大的应用市场。但是实际神经网络也特别的不稳定,例如学习效率和神经元数量等参数对最后训练的结果影响非常的大,神经网络把一切问题的特征都变为数字,把一切推理都变为数值计算,其结果势必是丢失信息,因此理论和学习算法还有待于进一步完善和提高。而回归分析法在分析多因素模型时,更加简单和方便;运用回归模型,只要采用的模型和数据相同,通过标准的统计方法可以计算出唯一的结果,但在图和表的形式中,数据之间关系的解释往往因人而异,不同分析者画出的拟合曲线很可能也是不一样的;回归分析可以准确地计量各个因素之间的相关程度与回归拟合程度的高低,提高预测方程式的效果;在回归分析法时,由于实际一个变量仅受单个因素的影响的情况极少,要注意模式的适合范围,所以一元回归分析法适用确实存在一个对因变量影响作用明显高于其他因素的变量是使用。多元回归分析法比较适用于实际经济问题,受多因素综合影响时使用。但是有时候在回归分析中,选用何种因子和该因子采用何种表达式只是一种推测,这影响了用电因子的多样性和某些因子的不可测性,使得回归分析在某些情况下受到限制。不管是哪种方法都有各自的优缺点。合理选择适合问题的方法是最重要的。 5.参考文献 【1】姜启源.数学模型.北京:高等教育出版社,2003. 【2】赵静,但琦等,数学建模与数学实验,北京:高等教育出版社 施普林格出版社,2000年 【3】李庆扬,王能超,易大义.数值分析(第四版)[M].北京:清华大学出版社,2001. 【4】张德丰.MATLAB数值计算方法.北京:机械工业出版社,2010. 【5】王惠文,《偏最小二乘回归方法及应用》,国防科技出版社,北京,1996. 【6】徐国章,等.曲线拟合的最小二乘法在数据采集中的应用【J】.冶金自动化增刊,2004年 【7】(美)里德.数值分析与科学计算.北京:清华大学出版社,2008. 【8】(美)约翰逊.数值分析与科学计算.北京:科学出版社,2012. 【9】姜绍飞,张春丽,钟善桐.BP网络模型的改进方法探讨【J】哈尔滨建筑大学学报,2000. 【10】郝中华.《B P神经网络的非线性思想》. 洛阳师范学院学报2008.3(4) 【11】巨军让,卓戎.《BP神经网络在Matlab中的方便实现》.新疆石油学院学报.2008.2 【12】周开利,康耀红编著.《神经网络模型及其MATLAB仿真程序设计》.2006:10-43 附录:程序1 x1=xlsread(F:\建模题\新建 Microsoft Excel 工作表.xls,B2:B51); x2=xlsread(F:\建模题\新建 Microsoft Excel 工作表.xls,C2:C51); x3=xlsread(F:\建模题\新建 Microsoft Excel 工作表.xls,D2:D51); x4=xlsread(F:\建模题\新建 Microsoft Excel 工作表.xls,E2:E51); y1=xlsread(F:\建模题\新建 Microsoft Excel 工作表.xls,F2:F51); y2=xlsread(F:\建模题\新建 Microsoft Excel 工作表.xls,G2:G51); x=[x1,x2,x3,x4]; x0=ones(size(x,1),1); t=1:50; X=[x0,x]; [b,bint,r,rint,statsl]=regress(y1,X); [b1,bint,r1,rint,statsl]=regress(y2,X); plot(t,r,t,r1) legend(误差y1,误差y2); 程序2 M文件 function f=myfun(beta,x) f=beta(1)+beta(2)*x(:,1)+beta(3)*x(:,2)+beta(4)*x(:,3)+beta(5)*x(:,4)+beta(6)*x(:,1).*x(:,1)+beta(7)*x(:,1).*x(:,2)+beta(8)*x(:,1).*x(:,3)+beta(9)*x(:,1).*x(:,4)+... beta(10)*x(:,2).*x(:,2)+beta(11)*x(:,2).*x(:,3)+beta(12)*x(:,2).*x(:,4)+beta(13)*x(:,3).*x(:,3)+beta(14)*x(:,3).*x(:,4)+beta(15)*x(:,4).*x(:,4); end function f=myfun(beta1,x) f=beta1(1)+beta1(2)*x(:,1)+beta1(3)*x(:,2)+beta1(4)*x(:,3)+beta1(5)*x(:,4)+beta1(6)*x(:,1).*x(:,1)+beta1(7)*x(:,1).*x(:,2)+beta1(8)*x(:,1).*x(:,3)+beta1(9)*x(:,1).*x(:,4)+... beta1(10)*x(:,2).*x(:,2)+beta1(11)*x(:,2).*x(:,3)+beta1(12)*x(:,2).*x(:,4)+beta1(13)*x(:,3).*x(:,3)+beta1(14)*x(:,3).*x(:,4)+beta1(15)*x(:,4).*x(:,4); end x=[x1,x2,x3,x4]; [beta,r1] = nlinfit(x,y1,myfun,rand(1,15)-0.5) [beta1,r2] = nlinfit(x,y2,myfun,rand(1,15)-0.5) t=1:50; plot(t,r1,t,r2) legend(误差y2,实际y1); legend(误差y1,实际y2); 程序3 function main() clc clear all; close all; warning off; InputNum=50;%输入的数据个数 TestNum=50;%测试的数据个数 FutureNum=2;%预测的数据个数 HiddenNum=6;%隐藏神经元个数 Il=4; %输入神经元个数 Ol=2; %输出神经元个数 x1=xlsread(F:\建模题\新建 Microsoft Excel 工作表.xls,B2:B51); x2=xlsread(F:\建模题\新建 Microsoft Excel 工作表.xls,C2:C51); x3=xlsread(F:\建模题\新建 Microsoft Excel 工作表.xls,D2:D51); x4=xlsread(F:\建模题\新建 Microsoft Excel 工作表.xls,E2:E51); y1=xlsread(F:\建模题\新建 Microsoft Excel 工作表.xls,F2:F51); y2=xlsread(F:\建模题\新建 Microsoft Excel 工作表.xls,G2:G51); XX=[x1;x2;x3;x4]; YY=[y1;y2]; [In,minp,maxp,tn,mint,maxt]=premnmx(XX,YY);%对样本进行初始化 Out=tn; %TestIn=In; %TestOut=Out; count=50000;%训练次数 rate=0.035;%学习速率 E0=0.65*10^(-3);%目标误差 P1=0.5*rand(HiddenNum,Il)-0.1;%输入层与隐含层之间权值 T1=0.5*rand(HiddenNum,1)-0.1;%输入层与隐含层之间阈值 P2=0.5*rand(Ol,HiddenNum)-0.1;%隐含层与输出层层之间权值 T2=0.5*rand(Ol,1)-0.1; %隐含层与输出层之间的阈值 ErrHistory=[]; for i=1:count Mid=logsig(P1*In+repmat(T1,1,InputNum));%传递 SOut=P2*Mid+repmat(T2,1,InputNum); E=Out-SOut;%误差 SSE=sumsqr(E); EH=[]; EH=[EH SSE]; %调整权值和阈值 if SSE
展开阅读全文
提示  淘文阁 - 分享文档赚钱的网站所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
关于本文
本文标题:神经网络与回归方法分析(数学建模).doc
链接地址:https://www.taowenge.com/p-2615897.html
关于淘文阁 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号 © 2020-2023 www.taowenge.com 淘文阁 

收起
展开