一元线性回归模型.ppt
《一元线性回归模型.ppt》由会员分享,可在线阅读,更多相关《一元线性回归模型.ppt(67页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第三章 一元线性回归模型(教材第二、三章),第三章 一元线性回归模型,3.1 回归的涵义 3.2 随机扰动项的来源 3.3 参数的最小二乘估计 3.4 参数估计的性质 3.5 显著性检验 3.6 拟合优度 3.7 预测 学习要点 回归模型的涵义,参数的OLS估计及其性质,显著性检验,3.1 回归的涵义,回归分析(regression analysis) 用于研究一个变量(称为被解释变量或应变量)与另一个或多个变量(称为解释变量或自变量)之间的关系。 Y代表被解释变量,X代表解释变量;解释变量有多个时,用X1,X2,X3等表示。 例:商品的需求量与该商品价格、消费者收入以及其他竞争性商品价格之间
2、的关系。,总体回归函数(population regression function,PRF) 例:学生的家庭收入与数学分数有怎样的关系?,3.1 回归的涵义,3.1 回归的涵义,总体回归函数(population regression function,PRF) 根据上面数据做散点图,3.1 回归的涵义,总体回归函数(population regression function,PRF) 上图中,圆圈点称为条件均值;条件均值的连线称为总体回归线。 总体回归线表明了Y的均值与每个X的变动关系。 上图近似线性的总体回归线可以表示成: 表示给定的X值所对应的Y的均值; 、 称为参数(paramet
3、ers),也称回归系数(regression coefficients); 称为截距(intercept), 称为斜率(slope)。 斜率系数度量了X每变动一单位,Y(条件)均值的变化率。举例: ,含义?,3.1 回归的涵义,样本回归函数(sample regression function, SRF) 实际中往往无法获得整个总体的数据,怎么估计总体回归函数?即如何求参数B1、B2? 通常,我们仅仅有来自总体的一个样本。 我们的任务就是根据样本信息估计总体回归函数。 怎么实现?,3.1 回归的涵义,样本回归函数(sample regression function, SRF) 表2-2、2-
4、3的数据都是从表2-1中随机抽取得到的。,3.1 回归的涵义,样本回归函数(sample regression function, SRF) 通过散点得到两条“拟合”样本数据的样本回归线。,3.1 回归的涵义,样本回归函数(sample regression function, SRF) 可用样本回归函数(SRF)表示样本回归线: 其中, 总体条件均值 的估计量; 并非所有样本数据都准确地落在样本回归线上,因此建立随机样本回归函数: 其中, 是 的估计量,称 为残差(residual)。 表示了Y的实际值与样本回归估计值的差。,3.1 回归的涵义,样本回归函数(sample regressio
5、n function, SRF) 回归分析:根据样本回归函数估计总体回归函数。,3.1 回归的涵义,“线性”回归的特殊含义 对“线性”有两种解释:变量线性和参数线性。 变量线性:例如前面的总体(或样本)回归函数;下面的函数不是变量线性的: 参数线性:参数B1、B2仅以一次方的形式出现。下面的模型是参数非线性的: 本书主要关注参数线性模型。从现在起,线性回归(linear regression)是指参数线性的回归,而解释变量并不一定是线性的。,3.2 随机扰动项的来源,总体回归函数说明在给定的家庭收入下,美国学生 平均的数学分数。 但对于某一个学生,他的数学分数可能与该平均水平有偏差。 可以解释
6、为,个人数学分数等于这一组的平均值加上或减去某个值。用数学公式表示为: 其中, 表示随机扰动项,简称扰动项。扰动项是一个随机变量,通常用概率分布来描述。,3.2 随机扰动项的来源,对于回归模型 称为 被解释变量(explained variable) 也称 应变量或因变量(dependent variable) 称为 解释变量(explanatory variable) 也称 自变量(independent variable) 称为 参数(parameter) 称为 随机扰动项(random error term),3.2 随机扰动项的来源,上式如何解释? 可以认为,在给定家庭收入水平 上,第
7、i个学生的数学分数可以表达为两部分之和: 一是 ,即 ,是该收入水平上的平均数学分数。这一部分称为系统或确定性部分。 二是 ,称为非系统或随机成本,由收入以外的因素决定。 此时,称 为随机总体回归函数(stochastic PRF)。,3.2 随机扰动项的来源,3.2 随机扰动项的来源,性质1:扰动项代表了未纳入模型变量的影响。例如个人健康状况、居住区域等等。 性质2:反映了人类行为的内在随机性。即使模型中包括了决定数学分数的所有变量,其内在随机性也不可避免,这是做任何努力都无法解释的。 性质3:还代表了度量误差,例如收入的数据可能不等于真实值。 性质4:“奥卡姆剃刀原则”即描述应该尽可能简单
8、,只要不遗漏重要的信息,此时可以把影响Y的次要因素归入随机扰动项。,3.3 参数的最小二乘估计,参数估计:普通最小二乘法(OLS) 根据样本回归函数估计总体回归函数,要回答两个问题: 如何估计PRF? 如何验证估计的PRF是真实的PRF的一个“好”的估计值? 这里先回答第一个问题。 回归分析中使用最广泛的是普通最小二乘法(method of ordinary least squares, OLS),3.3 参数的最小二乘估计,参数估计:普通最小二乘法(OLS) 最小二乘原理:由于不能直接观察PRF: 所以用SRF 来估计它,因而 最好的估计方法是,选择 使得残差 尽可能小。,3.3 参数的最小
9、二乘估计,参数估计:普通最小二乘法(OLS) 普通最小二乘法就是要选择参数 ,使得残差平方和(residual sum of squares, RSS) 最小。 即,3.3 参数的最小二乘估计,参数估计:普通最小二乘法(OLS) 如何确定 的值? 根据微积分,当 对 的一阶偏导数为0时,Q达到最小。即,3.3 参数的最小二乘估计,参数估计:普通最小二乘法(OLS) 以上联立方程组称为正规方程组(normal equations)。 求解 ,得 注意: ,即小写字母代表了变量与其均值的离差。 上面给出的估计量称为OLS估计量(OLS estimator)。,3.3 参数的最小二乘估计,参数估计:
10、普通最小二乘法(OLS) OLS估计量的一些重要性质 用OLS法得出的样本回归线经过样本均值点,即 残差的均值 总为0。 对残差和解释变量的积求和,其值为零,即 对残差与 (估计的 )的积求和,其值为零,即,3.3 参数的最小二乘估计,例子:数学S.A.T分数,3.3 参数的最小二乘估计,例子:数学S.A.T分数 根据公式可以得到回归结果:,3.3 参数的最小二乘估计,例子:数学S.A.T分数 根据公式可以得到回归结果: 对估计结果的解释: 斜率系数0.0013表示在其他条件保持不变的情况下,家庭年收入每增加1美元,数学S.A.T.分数平均提高0.0013分 截距432.4138表示,当家庭年
11、收入为0时,数学平均分大约为432.4138。(这样的解释没有什么经济意义) 对截距最好的解释是,它代表了回归模型中所有省略变量对Y的平均影响。,3.3 参数的最小二乘估计,例子:受教育年限与平均小时工资 预期平均工资随受教育年限的增加而增加 回归结果:,3.3 参数的最小二乘估计,例子:股票价格与利率 经济理论表明,股票价格和利率之间存在反向关系。,3.3 参数的最小二乘估计,例子:股票价格与利率 看起来两个变量之间的关系不是线性的(即不是直线),因此,假设实际关系如下: 回归结果为: 作为比较,线性回归结果为: 引发的一个重要问题:哪一个模型更好?如何进行判断?在模型选择中使用那些检验?后
12、面将逐一回答。,3.4 参数估计的性质,古典线性回归模型(CLRM)的假定 前面我们回答了“如何估计PRF”的问题OLS。 下面我们要回答“怎样判别它是真实PRF的一个好的估计”的问题。 只有假定了随机扰动项u的生成过程,才能判定SRF对PRF拟合得是好是坏。 OLS估计量的推导与随机扰动项的生成过程无关; 但根据SRF进行假设检验时,就必须对随机扰动项的生成做一些特殊的假定,否则无法进行假设检验。 下面仍然沿用一元线性回归模型来讨论。,3.4 参数估计的性质,古典线性回归模型(CLRM)的假定 假定1. 回归模型是参数线性的,但不一定是变量线性的。回归模型形式如下(可扩展到多个解释变量):
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 一元 线性 回归 模型
限制150内