Eviews数据统计与分析教程.ppt
《Eviews数据统计与分析教程.ppt》由会员分享,可在线阅读,更多相关《Eviews数据统计与分析教程.ppt(41页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第5章 基本回归模型的OLS估计 重点内容:普通最小二乘法 线性回归模型的估计 线性回归模型的检验一、普通最小二乘法(OLS)1.最小二乘原理设(x1,y1),(x2,y2),(xn,yn)是平面直角坐标系下的一组数据,且x1 x2 xn,如果这组图像接近于一条直线,我们可以确定一条直线y=a+bx,使得这条直线能反映出该组数据的变化。如果用不同精度多次观测一个或多个未知量,为了确定各未知量的可靠值,各观测量必须加改正数,使其各改正数的平方乘以观测值的权数的总和为最小。因而称最小二乘法。一、普通最小二乘法(OLS)1.最小二乘原理设双变量的总体回归方程为yt=B1+B2xt+t样本回归函数为y
2、t=b1+b2xt+et其中,et为残差项,5-3式为估计方程,b1 和b2分别为B1和B2的估计量,因而e=实际的yt 估计的yt一、普通最小二乘法(OLS)1.最小二乘原理估计总体回归函数的最优方法是选择B1和B2的估计量b1,b2,使得残差et尽可能达到最小。用公式表达即为总之,最小二乘原理就是选择样本回归函数使得y的估计值与真实值之差的平方和最小。一、普通最小二乘法(OLS)2.方程对象选择工作文件窗口工具栏中的“Object”|“New Object”|“Equation”选项,在下图所示的对话框中输入方程变量。一、普通最小二乘法(OLS)2.方程对象EViews5.1提供了8种估计
3、方法:u“LS”为最小二乘法;u“TSLS”为两阶段最小二乘法;u“GMM”为广义矩法;u“ARCH”为自回归条件异方差;u“BINARY”为二元选择模型,其中包括Logit模型、Probit模型和极端值模型;u“ORDERED”为有序选择模型;u“CENSORED”截取回归模型;u“COUNT”为计数模型。二、一元线性回归模型1.模型设定一元线性回归模型的形式为 yi=0+1 xi+ui (i=1,2,n)其中,y为被解释变量,也被称为因变量;x为解释变量或自变量;u是随机误差项(random error term),也被称为误差项或扰动项,它表示除了x之外影响y的因素,即y的变化中未被x所
4、解释的部分;n为样本个数。二、一元线性回归模型2.实际值、拟合值和残差估计方程为 表示的是yt的拟合值,和 分别是 0 和1的估计量。实际值指的是回归模型中被解释变量(因变量)y的原始观测数据。拟合值就是通过回归模型计算出来的yt的预测值。二、一元线性回归模型2.实际值、拟合值和残差三条曲线分别是实际值(Actual),拟合值(Fitted)和残差(Residual)。实际值和拟合值越接近,方程拟合效果越好。三、多元线性回归模型通常情况下,将含有多个解释变量的线性回归模型(多元线性回归模型)写成如下形式,yi=0+1 x1i+2 x2i+3 x3i+k xki+ui (i=1,2,n)其中,y
5、为被解释变量,也被称为因变量;x为解释变量或自变量;u是随机误差项(random error term),也被称为误差项或扰动项;n为样本个数。三、多元线性回归模型在多元线性回归模型中,要求解释变量x1,x2,xk之间互不相关,即该模型不存在多重共线性问题。如果有两个变量完全相关,就出现了完全多重共线性,这时参数是不可识别的,模型无法估计。三、多元线性回归模型通常情况下,把多元线性回归方程中的常数项看作虚拟变量的系数,在参数估计过程中该常数项始终取值为1。因而模型的解释变量个数为k+1.多元回归模型的矩阵形式为 Y=X+u其中,Y是因变量观测值的T维列向量;X是所有自变量(包括虚拟变量)的T个
6、样本点观测值组成的T(k+1)的矩阵;是k+1维系数向量;u是T维扰动项向量。四、线性回归模型的基本假定线性回归模型必须满足以下几个基本假定:假定1:随机误差项u具有0均值和同方差,即 E(ui)=0 i=1,2,n Var(ui)=2 i=1,2,n 其中,E表示均值,也称为期望,在这里随机误差项u的均值为0。Var表示随机误差项u的方差,对于每一个样本点i,即在i=1,2,n的每一个数值上,解释变量y对被解释变量x的条件分布具有相同的方差。当这一假定条件不成立是,称该回归模型存在异方差问题。四、线性回归模型的基本假定假定2:不同样本点下的随机误差项u之间是不相关的,即 Cov(ui,uj)
7、=0,ij,i,j=1,2,n 其中,cov表示协方差。当此假定条件不成立时,则称该回归模型存在序列相关问题,也称为自相关问题。四、线性回归模型的基本假定假定3:同一个样本点下的随机误差项u与解释变量x之间不相关,即 Cov(xi,ui)=0 i=1,2,n 四、线性回归模型的基本假定假定4:随机误差项u服从均值为0、同方差的正态分布,即 u N(0,2)如果回归模型中没有被列出的各因素是独立的随机变量,则随着这些随机变量个数的增加,随机误差项u服从正态分布。四、线性回归模型的基本假定假定5:解释变量x1,x2,xi是非随机的确定性变量,并且解释变量间互不相关。则这说明yi的概率分布具有均值,
8、即 E(yi|xi)=E(0+1xi+ui)=0+1xi该式被称为总体回归函数。如果两个或多个解释变量间出现了相关性,则说明该模型存在多重共线性问题。五、线性回归模型的检验1.拟合优度检验拟合优度检验用来验证回归模型对样本观测值(实际值)的拟合程度,可通过R2统计量来检验。五、线性回归模型的检验1.拟合优度检验公式 三者的关系为TSS=RSS+ESS TSS为总体平方和,RSS为残差平方和,ESS为回归平方和。五、线性回归模型的检验1.拟合优度检验总体平方和(TSS)反映了样本观测值总体离差的大小,也被称为离差平方和;残差平方(RSS)说明的是样本观测值与估计值偏离的程度,反映了因变量总的波动
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- Eviews 数据 统计 分析 教程
限制150内