高级计量经济学线性回归模型扩展课件.ppt
《高级计量经济学线性回归模型扩展课件.ppt》由会员分享,可在线阅读,更多相关《高级计量经济学线性回归模型扩展课件.ppt(143页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第第3章章 线性回归模型扩展线性回归模型扩展非线性模型基础非线性模型基础虚拟变量回归虚拟变量回归 变量标准化回归变量标准化回归学学案例分析案例分析 第一第一节 非非线性模型基性模型基础非线性模型的基本假定非线性模型的基本假定 非线性模型的参数估计非线性模型的参数估计 迭代算法的初值和收敛性迭代算法的初值和收敛性 非线性回归评价和假设检验非线性回归评价和假设检验 3.1.1非非线线性模型的基本假定性模型的基本假定 v非非线性回性回归分析是分析是线性回性回归分析的分析的扩展,也是展,也是传统计量量经济学的学的结构模型分析法。由于非构模型分析法。由于非线性回性回归的参数估的参数估计涉及非涉及非线性性
2、优化化问题,计算比算比较困困难,推断和,推断和预测的可靠性也要差一些,因此的可靠性也要差一些,因此传统计量量经济学学较少研究非少研究非线性回性回归。v20世世纪七八十年代以来,随着七八十年代以来,随着计算机技算机技术的的发展,展,非非线性回性回归的参数估的参数估计计算困算困难得到了克服,得到了克服,统计推断和推断和预测分析技分析技术也有很大也有很大发展。展。这些方面些方面的的变化使得非化使得非线性回性回归分析开始受到更多的重分析开始受到更多的重视,现在已在已经成成为计量量经济研究的研究的热点之一,基本形点之一,基本形成了与成了与线性回性回归分析相分析相对应的、比的、比较完整的回完整的回归分析和
3、分析和检验预测分析方法体系。分析方法体系。v此外,此外,计量量经济分析者分析者经常会忽略随机常会忽略随机误差差项的的作用方式作用方式问题,但,但实际上非上非线性模型的性模型的转换不不仅涉及到涉及到趋势性部分,也涉及随机性部分,也涉及随机误差部分,因此差部分,因此误差差项的作用方式的作用方式对于非于非线性模型的性模型的转化是非常化是非常重要的。有些非重要的。有些非线性关系就是因性关系就是因为误差差项是可加是可加而不是可乘的,从而而不是可乘的,从而导致不能利用致不能利用对数数变换进行行转化。例如,若常化。例如,若常见的柯布的柯布道格拉斯生道格拉斯生产函数函数中的随机中的随机误差差项是可加而不是可乘
4、的,即:是可加而不是可乘的,即:(3.2)式中式中,A,为未知参数,未知参数,为随机随机误差差项。则该模型就不能通模型就不能通过初等数学初等数学变换转化化为线性模型。性模型。v上述两种情况具有相当普遍的意上述两种情况具有相当普遍的意义,许多非多非线性性变量关系量关系都是因都是因为函数形式比函数形式比较复复杂,未知参数数量,未知参数数量较多且位置不多且位置不理想,或者随机理想,或者随机误差因素的作用方式不利,在非差因素的作用方式不利,在非线性性变量量关系上有加性的随机关系上有加性的随机扰动项,从而无法构造通,从而无法构造通过初等数学初等数学变换可以可以转化化为线性模型的非性模型的非线性模型。性模
5、型。对于于这些无法通些无法通过初等数学初等数学变换转化化为线性回性回归模型的非模型的非线性性经济变量关量关系,必系,必须直接用非直接用非线性性变量关系量关系进行分析。行分析。v 更更进一步一步说,即使非,即使非线性性变量关系可以通量关系可以通过初等数学初等数学变换转化化为线性模型,也可能造成模型随机性模型,也可能造成模型随机误差差项性性质的改的改变,如同方差性,如同方差性质不再成立等。不再成立等。对于于这种情况,常常也是种情况,常常也是直接作直接作为非非线性模型性模型进行分析比行分析比较有利。有利。v 虽然非然非线性模型在函数形式和参数位置等方面与性模型在函数形式和参数位置等方面与线性模性模型
6、有明型有明显差异,但它差异,但它们在代表在代表经济现象和数据背后的内在象和数据背后的内在规律性律性这一点上并没有很大的差一点上并没有很大的差别,因此非,因此非线性模型性模型计量量经济分析的基本思路与分析的基本思路与线性模型是相似的,仍然可以以回性模型是相似的,仍然可以以回归分析分析为基基础理理论。v也就是也就是说,仍然是在,仍然是在认定生成定生成经济数据的客数据的客观规律存在,律存在,经济现象是象是这些些规律表律表现形式的基形式的基础上,根据上,根据经济数据推数据推断生成它断生成它们的客的客观经济规律。具体来律。具体来说,就是确定非,就是确定非线性性模型的函数形式和估模型的函数形式和估计模型中
7、未知参数的数模型中未知参数的数值。因此,非。因此,非线性性计量量经济分析也称分析也称为“非非线性回性回归分析分析”,这是本章重是本章重点介点介绍的内容之一。的内容之一。v单方程非方程非线性性计量量经济模型的一般形式可以用下模型的一般形式可以用下列随机函数表示,即:列随机函数表示,即:(3.3)式中,式中,是模型的个解是模型的个解释变量,量,是是个未知参数;函数个未知参数;函数f是一个非是一个非线性函数,通常性函数,通常p大大于于k;是模型的随机是模型的随机误差差项。(。(3.3)式有矩)式有矩阵表示表示为 (3.4)v(3.3)和()和(3.4)式表明,非)式表明,非线性模型同性模型同样也是也
8、是由确定性由确定性变量关系表示的量关系表示的趋势性部分和随机性部分和随机误差差项两个部分两个部分组成。成。v与与线线性模型相似,性模型相似,为为了保了保证证非非线线性回性回归归分析的价分析的价值值及分析工作的及分析工作的顺顺利利进进行等,也需要行等,也需要对对非非线线性回性回归归模型作一些基本假模型作一些基本假设设。非。非线线性模型关于模型函性模型关于模型函数形式和参数的假数形式和参数的假设设与与线线性模型相似,第一条假性模型相似,第一条假设设是模型具有上述非是模型具有上述非线线性的函数形式,关于随机性的函数形式,关于随机误误差差项项的假的假设设也是也是满满足足 ,而且也可以要求服从正,而且也
9、可以要求服从正态态分布,即分布,即 。,。v如果把非如果把非线性最小二乘估性最小二乘估计量量记为,那么非,那么非线性性最小二乘估最小二乘估计就是求符合如下残差平方和就是求符合如下残差平方和 (3.5)达到极小的达到极小的 值,即,即为 。为了了方便起方便起见,我,我们在下面的在下面的讨论中将把上述最中将把上述最优化化问题的目的目标函数函数 称称为“最小二乘函数最小二乘函数”。v当模型只有一个待估当模型只有一个待估计参数参数时,最小二乘函数是,最小二乘函数是模型唯一参数的一元函数;当待估模型唯一参数的一元函数;当待估计参数有多个参数有多个时,则是参数向量是参数向量 的向量函数。的向量函数。一、格
10、点搜索法一、格点搜索法v比直接搜索法效率更高,适用于参数的取比直接搜索法效率更高,适用于参数的取值值范范围围是是连续连续区区间间(区域)的一种搜索方法是(区域)的一种搜索方法是“格点搜索格点搜索法法”。格点搜索法不是。格点搜索法不是简单简单地把所有可能的参数水地把所有可能的参数水平平组组合都代入最小二乘函数合都代入最小二乘函数 中,来中,来计计算函数算函数值值,而是根据某种,而是根据某种规则选择规则选择部分参数水平(或部分参数水平(或组组合)代入最小二乘函数合)代入最小二乘函数进进行行试试算。算。v以只有一个参数以只有一个参数 的非的非线线性回性回归为归为例。例。为为了找出了找出使最小二乘函数
11、使最小二乘函数S取最小取最小值值的参数水平的参数水平 ,我,我们们可以运用下列方法可以运用下列方法进进行搜索:行搜索:v首先,把参数首先,把参数 的可能取的可能取值值区区间间a,b分分为为10等等分,它分,它们们的端点分的端点分别为别为a,a+0.1(b-a),a+0.2(b-a),a+0.9(b-a),b把把这这些端些端点坐点坐标标分分别别代入最小二乘函数算出函数代入最小二乘函数算出函数值值,找出,找出上述所有端点坐上述所有端点坐标标中使中使S取得最小取得最小值值的一个,的一个,设设为为 。v根据上述思路不根据上述思路不难发现,当非,当非线性模型的最小二乘函数在性模型的最小二乘函数在所考所考
12、虑的参数估的参数估计值范范围a,b内,是参数内,是参数 的的严格凸函格凸函数数时,上述搜索方法是有效的,会很快收,上述搜索方法是有效的,会很快收敛,找到基本符,找到基本符合最小二乘要求的参数估合最小二乘要求的参数估计值。而且每步。而且每步计算的函数算的函数值只只有有10个左右。如果通个左右。如果通过三五次反复三五次反复细分格点就能得到收分格点就能得到收敛结果(果(这在大多数情况下都能成立),那么最多只需要在大多数情况下都能成立),那么最多只需要计算几十个函数算几十个函数值,计算工作量不算很大。当然,如果最算工作量不算很大。当然,如果最小二乘函数的情况比小二乘函数的情况比较复复杂,不是,不是严格
13、凸函数格凸函数时,则上述上述搜索方法的有效性不一定有保搜索方法的有效性不一定有保证。因。因为此此时往往没有唯一往往没有唯一的极点和最的极点和最优点,不能保点,不能保证搜索一定会收搜索一定会收敛,或一定会收,或一定会收敛到整体最小到整体最小值。v上述方法很容易推广到两个或更多参数的情况。上述方法很容易推广到两个或更多参数的情况。v以两个参数以两个参数 的情况的情况为例,格点搜索法如例,格点搜索法如下:先把下:先把 和和 两个参数的取两个参数的取值范范围都做都做10等等分,分,这样我我们就得到了如就得到了如图4.1所示的所示的许多格点。多格点。把把这些格点坐些格点坐标参数水平代入最小二乘函数,参数
14、水平代入最小二乘函数,计算出相算出相应的函数的函数值,找出其中取得最小函数,找出其中取得最小函数值的的一一组参数水平,假参数水平,假设为图4.1中中 点。可再点。可再把把围绕 的周的周围4个小格构成的区域两个小格构成的区域两边各作各作10等分形成更小的格点,再把等分形成更小的格点,再把这些格点的坐些格点的坐标代入最小二乘函数代入最小二乘函数计算函数算函数值,再找出上述格点,再找出上述格点坐坐标中使最小二乘函数取最小中使最小二乘函数取最小值的点的点 。v上述步上述步骤骤可以反复可以反复进进行,直至达到需要的精度或行,直至达到需要的精度或收收敛标敛标准,最后得到的最小二乘函数最小准,最后得到的最小
15、二乘函数最小值值的格的格点坐点坐标标就是要找的参数估就是要找的参数估计值计值。v一般来一般来说说,格点搜索法也主要适用于参数个数,格点搜索法也主要适用于参数个数较较少和最小二乘函数是少和最小二乘函数是严严格凸函数的情况。当参数格凸函数的情况。当参数个数更多个数更多时时,需要搜索的格点数量会增加得很快。,需要搜索的格点数量会增加得很快。对对于有多个极于有多个极值值点的比点的比较较复复杂杂的最小二乘函数,的最小二乘函数,格点搜索法更不一定能格点搜索法更不一定能顺顺利找到最小二乘函数的利找到最小二乘函数的解。解。二、最陡爬坡法二、最陡爬坡法 v最陡爬坡法是常用的非最陡爬坡法是常用的非线线性最性最优优
16、化数化数值值方法之一。方法之一。最陡爬坡法的基本思路是:从一个初始参数最陡爬坡法的基本思路是:从一个初始参数值值出出发发,在一个,在一个给给定半径的定半径的圆圆周上找目周上找目标标函数最大函数最大(或最小)的一(或最小)的一组组参数参数值值,然后再以,然后再以该组该组参数参数值值为为出出发发点重复上述搜索点重复上述搜索过过程,直至收程,直至收敛敛。v设设需要估需要估计计的仍然是最小二乘函数的仍然是最小二乘函数 中的参数中的参数向量向量 ,那么最陡爬坡法就是先以某种,那么最陡爬坡法就是先以某种规则规则、方法,或者任意方法,或者任意设设定参数向量的一个初始估定参数向量的一个初始估计计 ,然后根据某
17、种,然后根据某种规则给规则给定一个搜索半径,找出在定一个搜索半径,找出在这这个搜索半径上个搜索半径上对对 的一个最的一个最优优改改进进作作为为 。这这意味着在意味着在满满足足 与与 之之间间距离固定的距离固定的约约束条件下,求使束条件下,求使 取最小取最小值值的的 。v表示表示为在条件在条件 (3.6)下,使得下,使得 (3.7)其中,其中,k为常数。常数。v求求这个个约束最小束最小值问题的解需要构造拉格朗日函数,即的解需要构造拉格朗日函数,即 (3.8)式中,式中,代表拉格朗日乘子。将拉格朗日函数代表拉格朗日乘子。将拉格朗日函数对 求偏求偏导数,并令数,并令为0,得到,得到 (3.9)v上述
18、方法的上述方法的问题问题是因是因为为 是未知的,因此是未知的,因此 无法得到。但是,如果我无法得到。但是,如果我们们每次只是想移每次只是想移动动一小一小步步(取很小的取很小的k),那么,那么 可以很好地近似可以很好地近似 的的值值。v上述上述过过程程显显然可以反复然可以反复进进行。也就是行。也就是说说,可以把,可以把得到的得到的 作作为为新的新的 ,或新的出,或新的出发发点,再点,再在一个在一个给给定半径的定半径的圆圆周上重新周上重新进进行最行最优优改改进进搜索,搜索,找出目找出目标标函数最小的一函数最小的一组组参数参数值值 ,如此反复,如此反复直到收直到收敛敛。v 收收敛敛性一般有三个判断方
19、法:性一般有三个判断方法:对对于于给给定的收定的收敛标敛标准,准,(1)梯度向量梯度向量 离零向量充分近;离零向量充分近;(2)与与 之之间间距离充分小;距离充分小;(3)与与 之之间间差距充分小。当然差距充分小。当然对对于于给给定步定步长长的的搜索,第(搜索,第(2)条不能)条不能应应用。用。v一般来一般来说说,当函数有唯一的局部极,当函数有唯一的局部极值值的的时时候,从候,从任意初始任意初始值值出出发发都会收都会收敛敛,但当有多个局部极,但当有多个局部极值值时则时则有可能不会收有可能不会收敛敛到整体最大到整体最大值值。因此,在运。因此,在运用用这这种迭代算法种迭代算法时时必必须须要小心。要
20、小心。v当当f是是连续可微可微时,可以在某,可以在某组参数初始参数初始值处作一作一阶泰勒泰勒级数展开,得到数展开,得到f的的线性近似,把性近似,把这个个线性近似函数代入性近似函数代入最小二乘函数得到参数的二次函数,克服参数估最小二乘函数得到参数的二次函数,克服参数估计计算的算的困困难。但一。但一阶泰勒泰勒级数展开得到的近似函数与原函数是有数展开得到的近似函数与原函数是有差异的,用上述差异的,用上述级数展开近似的方法得到的参数估数展开近似的方法得到的参数估计也有也有偏差,偏差程度与泰勒偏差,偏差程度与泰勒级数展开的初始数展开的初始值与参数真与参数真实值的的偏差相关。偏差相关。v提高参数估提高参数
21、估计准确程度的途径是改准确程度的途径是改进泰勒泰勒级数展开的初始数展开的初始值,方法是把已,方法是把已经得到的参数估得到的参数估计作作为新的参数初始新的参数初始值,重新重新进行泰勒行泰勒级数展开和参数估数展开和参数估计。这种方法可以反复运种方法可以反复运用,直到得到比用,直到得到比较理想的参数估理想的参数估计值。这种种计算非算非线性回性回归参数估参数估计的迭代算法称的迭代算法称为“高斯牛高斯牛顿法法”。v在非在非线线性回性回归归分析中,高斯牛分析中,高斯牛顿顿法法实质实质上就是上就是非非线线性模型本身的反复性模型本身的反复线线性化和性化和线线性回性回归归,适用,适用对对象是不能通象是不能通过过
22、初等数学初等数学变换转变换转化化为线为线性模型,性模型,但具有但具有连续连续可微函数性可微函数性质质,可以利用一,可以利用一阶阶泰勒泰勒级级数展开数展开强强制制转换转换成成线线性模型的非性模型的非线线性模型。性模型。v对于非于非线性回性回归模型模型 高斯牛高斯牛顿法参数估法参数估计的具体方法如下:先取一的具体方法如下:先取一组参数参数初始初始值(初始(初始值选择方法后面方法后面讨论),然后把上述非,然后把上述非线性函数在性函数在 处对参数参数 做泰勒做泰勒级数展开,并只取其中的数展开,并只取其中的线性性项而忽略高次而忽略高次项,得,得到到 (3.12)式中式中误差差项 为原模型原模型误差差项
23、与泰勒与泰勒级数展开的数展开的高高阶项之和。整理上述展开式得到之和。整理上述展开式得到 (3.13)v若令若令 (3.15)(3.16)v将(将(3.15)和()和(3.16)式代入()式代入(3.13)式,模)式,模型型变为 (3.17)v显然然这是一个是一个M对 的的线性回性回归模型,模型,可以用可以用线性回性回归的最小二乘法估的最小二乘法估计其中参数其中参数 的估的估计值,我,我们记为 。v 把参数估把参数估计值 作作为新的初始新的初始值再次再次进行泰勒行泰勒级数展开,数展开,进行同行同样的的变换和和线性回性回归,得到一得到一组新的参数估新的参数估计值 。由于通常。由于通常 作作为参数初
24、始参数初始值比比带有有较大盲目性的原参数初始大盲目性的原参数初始值与真与真实性的近似程度要好,因此新参数估性的近似程度要好,因此新参数估计值 一般会是一一般会是一组更好的估更好的估计,也就是,也就是说参数估参数估计的精度得到了提高。的精度得到了提高。v反复运用上述方法反复运用上述方法进行行线性化近似和性化近似和线性回性回归,直到参数估直到参数估计值收收敛或或满足我足我们要求的精度,或要求的精度,或者不者不严格地格地说是直到参数估是直到参数估计值不再有大的不再有大的变化。化。我我们把最后得到的把最后得到的 作作为原非原非线性模型的参数估性模型的参数估计。四、牛四、牛顿顿一拉夫森法一拉夫森法v这这
25、种方法可以看作是高斯种方法可以看作是高斯牛牛顿顿法改法改进进方法的非方法的非线线性回性回归归迭代算法,称迭代算法,称为为牛牛顿顿拉夫森法拉夫森法(newtonraphson method)。牛)。牛顿顿拉拉夫森法的基本思想也是利用泰勒夫森法的基本思想也是利用泰勒级级数展开近似,数展开近似,通通过过迭代运算迭代运算寻寻找最小二乘函数最找最小二乘函数最优优解的数解的数值值解解法。不法。不过过牛牛顿顿拉夫森法不是拉夫森法不是对对模型非模型非线线性函数性函数f本身做本身做线线性近似,而是直接性近似,而是直接对对最小二乘函数最最小二乘函数最优优化的一化的一阶阶条件做一条件做一阶阶泰勒泰勒级级数展开近似。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 高级 计量 经济学 线性 回归 模型 扩展 课件
限制150内