多元回归分析:估计.ppt
《多元回归分析:估计.ppt》由会员分享,可在线阅读,更多相关《多元回归分析:估计.ppt(85页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、1多元回归分析:估计(1)Multiple Regression Analysis:Estimation(1)y=b0+b1x1+b2x2+.bkxk+u2本章大纲n使用多元回归的动因n普通最小二乘法的操作和解释n估计量的期望值nOLS估计量的方差nOLS的有效性:高斯马尔可夫定理3课堂大纲n使用多元回归的动因 n普通最小二乘法的操作和解释n假定MLR.1 MLR.4 nOLS估计值的无偏性4动因:优点n经验研究中使用简单回归模型的主要缺陷是:它很难得到在其它条件不变的情况下,x对y的影响。n多元回归分析更适合于其它条件不变情况下的分析,因为多元回归分析允许我们明确地控制其它许多也同时影响因变
2、量的因素。n多元回归模型能容纳很多可能相关的解释变量,所以在简单回归分析可能误导的情况下,可以寄希望于多元回归模型来推断因果关系。6动因:优点n可以解释更多的因变量变动。n它可以表现更一般的函数形式。n多元回归模型是实证分析中最广泛使用的工具。7动因:一个例子n考虑一个简单版本的解释教育对小时工资影响的工资方程。exper:在劳动力市场上的经历,用年衡量n在这个例子中,“在劳动力市场上的经历”被明确地从误差项中提出。9含有k个自变量的模型n一般的多元线性回归模型可以写为10类似于简单回归模型nb0仍是截距nb1到bk都称为斜率参数nu仍是误差项(或干扰项)n仍需作零条件期望的假设,所以现在假设
3、 E(u|x1,x2,xk)=0n仍然最小化残差平方和,所以得到k+1个一阶条件11如何得到OLS估计值n普通最小二乘法选择能最小化残差平方和的估计值,12如何得到OLS估计值k+1个一阶条件:13n在估计之后,我们得到OLS回归线,或称为样本回归方程(SRF)n得到OLS回归式之后,对每次观测都得到一个拟合值或预测值,对观测点i,其拟合值就是n第i个观测的残差为:如何得到OLS估计值14OLS拟合值和残差的性质n残差项的均值为零n每个自变量和OLS协残差之间的样本协方差为零。n点 总位于OLS回归线上。15对多元回归的解释n由可知n所以,保持 不变意味着:即,每一个j都有一个偏效应(part
4、ial effect),或其他情况不变(ceteris paribus)的解释。16例子:大学GPA的决定因素n两个解释变量的回归 pcolGPA:大学成绩预测值hsGPA :高中成绩绩 ACT :成绩测验分数(achievement test score)pcolGPA=1.29+0.453hsGPA+0.0094ACTn一个解释变量的回归pcolGPA=2.4+0.0271ACTnACT的系数大三倍。n如果这两个回归都是对的,它们可以被认为是两个不同实验的结果。17“保持其它因素不变”的含义n多元回归分析的优势在于它使我们能在非实验环境中去做自然科学家在受控实验中所能做的事情:保持其它因素
5、不变。18对“排除其它变量影响”的解释n考虑回归线n 的一种表达式为:n 是由以下回归得出的残差:20“排除其它变量影响”(一般情况)n在一个含有k个解释变量的一般模型中,仍然可以写成 但残差 来自x1对x2,xk的回归。n于是 度量的是,在排除x2,xk等变量的影响之后,x1对y的影响。21比较简单回归和多元回归估计值n比较简单回归模型和多元回归模型n一般来说,除非:或 样本中x1和x2不相关。22比较简单回归和多元回归估计值n这是因为存在一个简单的关系n这里,是x2对x1的简单回归得到的斜率系数。25简单回归和多元回归估计值的比较n在k个自变量的情况下,简单回归和多元回归只有在以下条件下才
6、能得到对x1相同的估计(1)对从x2到xk的OLS系数都为零(2)x1与x2,xk中的每一个都不相关。拟合优度n每一个观察值可被视为由解释部分和未解释部分构成:n定义:nSST=SSE+SSR2627拟合优度(续)我们怎样衡量我们的样本回归线拟合样本数据有多好呢?可以计算总平方和(SST)中被模型解释的部分,称此为回归R2w R2=SSE/SST=1 SSR/SST28拟合优度(续)我们也可以认为R2等于实际的yi与估计的 之间相关系数的平方29更多关于R2n当回归中加入另外的解释变量时,R2通常会上升。n例外:如果这个新解释变量与原有的解释变量完全共线,那么OLS不能使用。n此代数事实成立,
7、因为当模型加入更多回归元时,残差平方和绝不会增加。30更多关于R2n考虑从一个解释变量开始,然后加入第二个。nOLS性质:最小化残差平方和。n如果OLS恰好使第二个解释变量系数取零,那么不管回归是否加入此解释变量,SSR相同。n如果OLS使此解释变量取任何非零系数,那么加入此变量之后,SSR降低了。n实际操作中,被估计系数精确取零是极其罕见的,所以,当加入一个新解释变量后,一般来说,SSR会降低。31OLS估计量的期望值n我们现在转向OLS的统计特性,而我们知道OLS是估计潜在的总体模型参数的。n统计性质是估计量在随机抽样不断重复时的性质。我们并不关心在某一特定样本中估计量如何。32假定 ML
8、R.1(线性于参数)n总体模型可写成y=b0+b1x1+b2x2+bkxk+u其中,b1,b2,bk 是我们所关心的未知参数(常数),而u则是无法观测的随机误差或随机干扰。n上述方程规范地表述了总体模型或真实模型。由于因变量y与自变量都可以为任意函数,所以上式是灵活多变的。33假定 MLR.2(随机抽样性)n我们有一个包含n次观测的随机样本(xi1,xi2,xik;yi):i=1,n,它来自假定MLR。1中的总体模型。n有时我们将模型写为 yi=b0+b1xi1+b2xi2+bkxik+uin其中,i 表示观测次数,j=1,k代表第j个回归元(变量序号)34假定MLR.3(不存在完全共线性)n
9、在样本(因而在总体)中,没有一个自变量是常数,自变量之间也不存在严格的线性关系。n如果方程中一个自变量是其它自变量的一个线性组合时,我们说此模型遇到完全共线性(perfect collinearity)问题,此时不能用OLS估计参数。35假定MLR.3 n完全共线性的例子:y=b0+b1x1+b2x2+b3x3+u,x2=3x3y=b0+b1log(inc)+b2log(inc2)+uy=b0+b1x1+b2x2+b3x3+b4x4+u,x1+x2+x3+x4=1n当y=b0+b1x1+b2x2+b3x3+u,n 0Corr(x1,x2)0偏误为正偏误为负b2 0偏误为负偏误为正51遗漏变量偏
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 多元 回归 分析 估计
限制150内