多元回归分析 (2).ppt
多元回归分析现在学习的是第1页,共21页7.1 符号与假定 三变量的总体回归函数(PRF):其中 和 被称为偏回归系数 假定:(1)扰动项0均值(2)扰动项无序列相关(3)扰动项与自变量不相关(自变量非随机)(4)自变量之间无精确的线性关系(无多重共线性)12233iiiiYXXu23现在学习的是第2页,共21页7.2 对多元回归方程的解释 给定自变量的固定值为条件的Y的条件均值2312233(|,)iiiiiEY XXXX现在学习的是第3页,共21页7.3 偏回归系数 偏回归系数的含义类似于多元微分中的偏微分:假定X3不变(常数),Y对X2的导数 或:X2对Y的“净”的影响 如何获得X2对Y的净影响,关键是剔除X3的影响(1)Y对X3回归,其残差表示Y中不能被X3解释的部分(残差与X3无关,与Y相关)(2)X2对X3回归,其残差表示X2中不能被X3解释的部分(残差与X3无关,与X2相关)(3)(1)的残差对(2)的残差回归,其系数即为X2对Y的偏相关系数现在学习的是第4页,共21页7.4 偏回归系数的OLS与ML估计 OLS系数估计:类似于二元模型 系数方差 扰动项方差估计12131123231,1nnXXX XX YXXX121311223231cov,1nnXXX XXXX2 3u un现在学习的是第5页,共21页OLS 估计的性质 1、回归线通过均值点 2、估计均值等于样本均值 3、残差均值等于0 4、残差与回归元无关 5、残差与因变量估计值无关 6、其他条件不变(扰动项方差),自变量之间的相关系数越大,回归系数的方差越大7、对于给定的自变两之间的相关系数,扰动项方差越大,回归系数的方差越大 8、OLS在古典假设下是无偏、线性最小方差估计量现在学习的是第6页,共21页MLE估计量 1、在古典假定下,MLE估计系数与OLS估计系数相同 2、MLE的扰动项方差的估计量为 而OLS的估计量为2/iun2/()iunk现在学习的是第7页,共21页7.5 多元回归的R-2 回顾:TSS=(总离差平方和)实际值对均值的偏离 ESS=(解释平方和)估计值对均值的偏离 RSS=(残差平方和)估计值对实际值的偏离2TSSESSRSSESSRTSS现在学习的是第8页,共21页7.6 婴儿死亡率与PGNP和FLR的关系现在学习的是第9页,共21页回归结果现在学习的是第10页,共21页7.7多元回归视角下的简单回归 模型设定偏差:本应是多元回归,而模型设定为二元回归,或者相反(缺失变量或冗余变量)现在学习的是第11页,共21页7.8 R-2和调整的R-2 在回归方程中包含的回归元越多,则估计方程的R-2会越大,但过多的变量也会使得模型失去(预测的)意义。现在学习的是第12页,共21页两个方程的R-2的比较 1、比较的前提 两个方程的因变量相同,Y和LnY的回归方程的R-2是不可直接比较的 2、如果因变量不同,但又需要比较时(1)根据估计方程,计算因变量(本身)的估计值(2)利用此估计值,根据R-2的计算公式重新计算R-2(3)比较不同方程的R-2现在学习的是第13页,共21页例7.2 咖啡人均消费与价格关系现在学习的是第14页,共21页由对数方程计算Y的预测值(YF)Series EsSeries TsEs=(yf-mean(y)2Ts=(y-mean(y)2Scalar EssScalar TssEss=sum(Es)Tss=sum(Ts)Scalar r2R2=Ess/Tss R-2=0.68688略大于线性模型的R-2222()ESSYYRTSSYY现在学习的是第15页,共21页R-2在回归元之间的分配 问题:每个回归元对R-2的贡献度 结论:没有明确的方法现在学习的是第16页,共21页需要R-2最大化吗 问题:R-2或调整的R-2越大越好吗 结论:系数的显著性和经济意义的正确性之重要性大于R-2的重要性。现在学习的是第17页,共21页7.9 柯布道格拉斯生产函数现在学习的是第18页,共21页 1、beta1,产出对劳动的弹性 2、beta2,资本对劳动的弹性 3、beta1+beta2,规模报酬:大于1=规模报酬递增;小于1=规模报酬递减;等于1=规模报酬不变现在学习的是第19页,共21页估计结果现在学习的是第20页,共21页7.10 多项式回归:成本函数现在学习的是第21页,共21页