《一元线性回归的最小二乘估计精.ppt》由会员分享,可在线阅读,更多相关《一元线性回归的最小二乘估计精.ppt(21页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、一元线性回归的最小二乘估计第1 页,本讲稿共21 页*et*YXXt 图 2 YtYt第2 页,本讲稿共21 页 拟合的直线 称为拟合的回归线.对于任何数据点(Xt,Yt),此直线将Yt 的总值 分成两部分。第一部分是Yt的拟合值或预测值:,t=1,2,n 第二部分,et 代表观测点对于回归线的误差,称为拟合或预测的残差(residuals):t=1,2,n 即 t=1,2,n残差第3 页,本讲稿共21 页 我们的目标是使拟合出来的直线在某种意义上是最佳的,直观地看,也就是要求估计直线尽可能地靠近各观测点,这意味着应使各残差尽可能地小。要做到这一点,就必须用某种方法将每个点相应的残差加在一起,
2、使其达到最小。理想的测度是残差平方和,即 如何决定估计值 和?残差平方和第4 页,本讲稿共21 页 最小二乘法就是选择一条直线,使其残差平方和达到最小值的方法。即选择 和,使得达到最小值。第5 页,本讲稿共21 页 运用微积分知识,使上式达到最小值的必要条件为:即第6 页,本讲稿共21 页整理,得:此二式称为正规方程。解此二方程,得:.其中:离差样本均值估计量第7 页,本讲稿共21 页(5)式和(6)式给出了OLS 法计算 和 的公式,和 称为线性回归模型 Yt=+Xt+ut 的参数 和 的普通最小二乘估计量(OLS estimators)。这两个公式可用于任意一组观测值数据,以求出截距和斜率
3、的OLS 估计值(estimates),估计值是从一组具体观测值用公式计算出的数值。一般说来,好的估计量所产生的估计值将相当接近参数的真值,即好的估计值。可以证明,对于CLR 模型,普通最小二乘估计量正是这样一个好估计量。第8 页,本讲稿共21 页3 例子 例1 对于第一段中的消费函数,若根据数据得到:n=10,=23,=20 则有因而第9 页,本讲稿共21 页例2 设Y 和X 的5期观测值如下表所示,试估计方程 Yt=+Xt+ut 序号 1 2 3 4 5 Yt 14 18 23 25 30 Xt 10 20 30 40 50 解:我们采用列表法计算。计算过程如下:第10 页,本讲稿共21
4、页序号YtXtyt=Yt-xt=Xt-xt ytxt21 14 10-8-20 160 4002 18 20-4-10 40 1003 23 30 1 0 0 04 25 40 3 10 30 1005 30 50 8 20 160 400n=5 110 150 0 0 390 1000表 3 1第11 页,本讲稿共21 页Eviews创建工作文件,输入数据并进行回归:Create u 1 5data x yls y c x第12 页,本讲稿共21 页第13 页,本讲稿共21 页第14 页,本讲稿共21 页第15 页,本讲稿共21 页第16 页,本讲稿共21 页第17 页,本讲稿共21 页第1
5、8 页,本讲稿共21 页 对于满足统计假设条件(1)-(4)的线性回归模型 Yt=+Xt+ut,,普通最小二乘估计量(OLS 估计量)是最佳线性无偏估计量(BLUE)。或 对于古典线性回归模型(CLR 模型)Yt=+Xt,普通最小二乘估计量(OLS 估计量)是最佳线性无偏估计量(BLUE)。3.高斯-马尔柯夫定理(Gauss-Markov Theorem)第19 页,本讲稿共21 页我们已在前面证明了无偏性,此外,由于:由上段结果,=其中 这 表 明,是 诸 样 本 观 测 值Yt(t=1,2,n)的 线 性 函 数,故 是线性估计量。剩 下 的 就 是 最 佳 性 了,即 的 方 差 小 于 等 于 的 其 他 任何 线 性 无 偏 估 计 量 的 方 差,我 们 可 以 证 明 这 一 点,但 由 于时间关系,从略。有兴趣的同学请参见教科书(P46-47)第20 页,本讲稿共21 页我们在前面列出的假设条件(5)表明,ut N(0,2),t=1,2,.,n 即各期扰动项服从均值为0、方差为2的正态分布。考虑到假设条件(4),即Xt为非随机量,则由前面结果:=其中,4.和 的分布第21 页,本讲稿共21 页
限制150内