大数据时代计量经济学发展展望,计量经济学论文.docx
《大数据时代计量经济学发展展望,计量经济学论文.docx》由会员分享,可在线阅读,更多相关《大数据时代计量经济学发展展望,计量经济学论文.docx(23页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、大数据时代计量经济学发展展望,计量经济学论文计量经济学已成为我们国家高校经济管理类学科本科和研究生必修的核心理论课程之一,并在我们国家经济学界越来越遭到关注,正可谓经济学界的 宠儿 ,引领经济学的研究方向。任何计量经济学研究都离不开高质量的数据。然而对计量经济学学者来讲,数据都是观测数据而非实验数据,很难得到大而全、高质量的数据,导致模型拟合存在天生缺陷。经济理论或模型作为对复杂现实经济的简化抽象,只能刻画主要的或重要的经济因素。而实际观测到的数据却是由很多因素共同作用的结果,华而不实,有些因素是未知的或不可观测的,或者没有包括在经济模型中,因而反映不出它们的影响。数据搜集困难导致数据不全、质
2、量不高,加之计量模型假设过于苛刻和模型的过度拟合等缺陷致使处理结果缺乏可信度和实用性,因而当下计量经济学研究价值也饱受争议。自然科学中很多学科,如物理学,能够精到准确地把握物体运动规律和预测物体运动变化,一个重要原因是所研究的物理系统在相当长的一段时间内不具有时变性。经济系统则有很大不同,经济发展是一个不可逆或不可重复的动态经过,经济关系和经济系统也经常发生时变和构造性变化。 大数据概念炙手可热:随着互联网的发展,大数据有着强大的数据采集能力,且数据的采集具有实时性;大数据处理和数据建模都有专业的大数据团队来完成;计算机本身拥有强大的计算、分析和处理能力,计算机没有失误除非程序本身错误、不存在
3、偏见和丰富的感情色彩。大数据使得不管是在数据的采集、数据的挖掘、数据的处理和数据建模等方面都有了质的飞跃,然而大数据能否弥补计量经济学的局限?在哪些方面、多大程度上弥补?大数据又将给计量经济学带来哪些影响和冲击? 一、计量经济学的局限性 一数据 1.数据的搜集 计量经济学研究的成功离不开全面、高质量的数据。然而,全面、高质量的数据离不开高水平的数据采集。由于受数据采集的工具、采集的条件和采集人员的失误等因素的限制,导致经济数据可能存在测量误差,数据很难知足高质量、全面、准确的要求,且经济学学者搜集到的原始经济数据几乎都已经过工作人员的处理,工作人员在数据统计时难免带有偏见和盲点,无论预测人员带
4、有什么偏见和盲点,这些偏见和盲点都可能会被复制到他的计算机程序中,加之工作人员的偷懒和难以避免的失误等人为因素,都会使得采集的数据存在失真可能,数据经太多重的辗转反侧和多级的蹂躏才到达研究者手中。一些经济变量数据缺失,也使得经济理论研究数据缺乏完好性,给计量经济学研究带来阻碍。 同时经济数据的获得存在严重的时滞现象,时滞也使得数据的使用价值和统计计量研究价值黯然失色。如美国劳工统计局的人员每个月颁布CPI,联邦为了得到相关数据,要雇佣很多人向全美90个城市的商店、办公室打 、发 甚至登门拜访。然而采集到的各种各样的数据信息达80000种,要采集这些数据每年大概需要花费两亿五千万美元。这些数据是
5、精到准确的也是有序的,然而从数据的搜集到到达统计计量经济学者手中再到结果的颁布会滞后数周。2008年的经济危机表示清楚,这种滞后是致命的。对于计量经济学学者来讲,所使用的数据时间跨度更大,要求披满厚厚灰尘的数据有 左右 将来经济的能力,不免力不从心,数据的过于陈旧,也使得计量经济学模型频繁遭遇滑铁卢。 2.数据的处理 对于搜集到的数据,作为数据的应用方-经济学学者只能被动接受。建模者通常面对的是观测数据而非实验数据。这对计量经济学中的经历体验建模有两方面的重要含义。首先,要求建模者把握与分析实验数据极为不同的技巧 其次,数据搜集者与分析者的分离要求建模者特别熟悉所用数据的性质和构造。 因此经济
6、学学者只能凭借个人经历体验等手段屏蔽自个眼中的噪声-对数据进行加减乘除等各项处理微观经济数据推宏观经济数据尤为如此。在对数据进行处理时,受制于分析能力和技术条件的限制,经济学学者对搜集到的数据尤其超大型数据很难进行再处理,或者进行简单的处理,乃至不处理;即便处理也是根据学者要求进行,根据经历体验来看,所有人都有各自的信仰和偏见-这种信仰和偏见是由个人的阅历、价值观、知识、内涵修养、政治立场或者专业背景等因素凝聚而成,处理的数据也很难给出公正合理的结果;计量经济学学者在数据选择时可能存在样本的选择偏差,数据与经济模型中的变量的定义可能不相符或贴合度过低;由于过分追求模型的精到准确性,学者经常以十
7、分数据严重偏离曲线为正当理由对数据进行抹杀;数据处理时细分维度低、无精细的数据,使得曲线过度拟合风险增加,且原始数据很难二次细分,也给数据的应用带来阻碍;宏观经济数据大都由微观经济数据简单的加减乘除得来,这种处理可能是应用两个或者多个低相关度的微观数据组推导宏观数据,可能改变宏观经济变量之间的关系。数据形式多样化:随着互联网的发展,数据不仅仅仅是可观测的构造性的数据,还存在不可观测的半构造性和非构造性数据谷歌的搜索词条等等,计量经济学却没有能力对构造性数据之外的数据进行处理。 计量经济预测者面临的最大挑战之一就是,他们的原始数据质量不高。经济预测者在进行预测时,很少公开自个的预测区间,或许是由
8、于这样做会降低公众对他们的专业知识的信任度。哈祖斯讲: 经济预测者为什么不公开预测区间呢?由于他们怕出丑。我以为就是这个原因 .然而,不仅经济预测中存在着不确定性,经济变量本身也具有不确定性。大多数经济数据序列都需要修正,统计数据已经颁布,修正工作可能长达数月甚至数年。 二数据建模 1.模型假设 计量经济模型的构建之前,需要对函数形式提出诸多前提假设,如最小二乘法的基本假设:x值是固定的或独立于误差项;干扰项ui的均值为0;各干扰项之间无自相关等。一个非常有价值的问题是:所有这些假定有多真实?这个 假定现实性 的问题是科学哲学中的一个古老问题。有一派观点以为假定能否真实无关紧要,重要的是基于这
9、些假设的预测。以 假定无关紧要论 着称的弗里德曼,对他来讲,假定的非真实性有着积极的意义。 为了有意义, 一个假设在其假定中从描绘叙述上看必定是错误的。 但是回想一下在任何科学研究中我们做某些假定,都是由于它们便于逐步开展主题研究,并不由于它们在准确地复制了现实的意义上必须是真实的。但是,如一位作者所讲, 假如简单性是好的理论所盼望的一个准则,那么所有好的理论都将肆无忌惮地理想化和简单化。 模型漏洞百出,提出利己假设更多的是为弥补模型漏洞。 为了方便对经济数据进行统计分析,计量经济学家经常要假设一个经济系统的运行规律具有不随时间和个体改变的某些特征,比方假设经济系统具有时间平稳性或不同经济人的
10、数据生成经过具有同质性。而任何经济系统的时变性不确定性是影响经济系统最主要的因素,一些经济预测者不愿意让人们知道这一点。与其他大多数学科门类的预测者一样,计量经济预测者将不确定性视作仇敌-威胁其声誉的天敌。他们没有对经济时变性做出准确地预测,而是无端地以为预测模型中的不确定性降低了,但在现实理论研究中,他们却无法提高预测的质量,这样做也无法改良真实经济中的预测。一旦洪水来袭,我们将毫无准备。假设给模型带来的害处就是给模型套上了枷锁,使得模型与实际相去甚远,多数模型只是划过天空的流星-经不起时间的考验。 2.模型拟合 计量经济学家建立经济理论或模型,目的就是解释这些经历体验特征事实。这一阶段的关
11、键是建立适宜的经济数学模型,模型的好坏事关经济研究的成败。大多失败的模型预测大都源于一种盲目的自信导致的过度拟合,模型实际所能解释的问题和自以为所能解释的问题之间存在鸿沟。他们用精到准确的预测冒充精准的预测。在统计学中,将噪声误以为信号的行为被称为过度拟合。拟合的讲法源于统计模型和过去的观测值贴合度,当过于粗略地拟合时即不充分拟合,就意味着你在对观测数据中的噪声进行拟合,而不是挖掘数据的深层构造。在计量经济学研究领域,过度拟合的错误更为常见。 为了弄清这种错误的成因,我们暂且赋予自个一种在现实中几乎不可能拥有的优势-我们清楚地知道真实数据的庐山真面目。如此图1,画了一条平缓的抛物线,顶点落在中
12、间位置,末端逐步加强。这条抛物线代表着我们想了解的所有现实数据。但是,我们还是不能直接观察到隐藏在数据中的深层关系,这种关系由一系列的独立的数据点具体表现出,而我们只能从这些点推断出这种关系模型。除此之外,这些数据点必定受特殊环境的影响-有信号,有噪声。在图1中,画了100个数据点,分别用圆形和三角形标记,貌似这样就足以从噪声中捕捉到信号。即便这些数据中存在一定程度的随机性,但显然它们仍遵循此抛物线。 然而,当我们的数据相对有限时现实情况经常如此,情况将会怎样呢?那时我们就更可能陷入过度拟合的陷阱中。在图2中,将100个数据点缩减至25个,这时,你会怎样连接这些点呢? 当然,前面已假设我们知道
13、真实数据应该呈现的关系模型,就会自然地将它们连接成为一条抛物线。当然,这样的数学表示出式用二次方程式能够很好地重建真实的关系模型图3。 但是,在无法得知数据拟合的理想模型时,我们有时就会表现得贪心和聪明的无知。如此图4,一个过度拟合的模型案例。在图中,设计了一个复杂的函数,能够追踪每一个边缘数据点,建构 准确 的数学模型,用这个函数连接这些点,曲线的上下波动陡然加强。这使得模型离真实的关系模型相去甚远,也使得预测更离谱。 这个错误貌似很容易避免,前提是我们无所不知,对数据的深层构造总是了如指掌,因而避免这个错误就显得很轻松。然而,几乎在所有的计量经济学研究工作中,我们都必须利用归纳法,从已经知
14、道的证据中对其构造进行推断。当数据有限且充满噪声时,且我们对基本关系的理解很粗浅时,就更有可能对一种模型做出过度拟合,在对经济危机预测时,这两种情况可谓习以为常。 假如我们既不在乎也不知道数据关系的真相,就有很多理由解释我们为什么倾向于过度拟合的模型。华而不实之一就是,在计量经济学学者最常用的统计测试中,过度拟合模型更受青睐。有一项测试是用以测试拟合模型能够解释多少数据的变化。根据这一测试,过度拟合的模型图4解释了85%的数据变化,而适度拟合模型只解释了56%的数据变化。但是本质上,过度拟合模型是在混淆视听,将噪声误当作信号混入模型中。事实上,在解释真实世界时,它的表现更糟。 这种解释似乎让情
15、况一目了然,但很多计量经济学学者完全无视此问题。研究者拥有诸多统计检验方式方法,可这么多的方式方法却没有使他们增加一点科学态度,减少一点梦幻想象,而是更像充满梦幻想象的孩子在天空中寻找动物形状的云一样。 过度拟合代表了双重毒运:过度拟合模型外表上看来比拟好,但其实际性能却很糟糕。由于后一种因素,若被用在真实的经济预测中,过度拟合模型最终将使得预测者付出惨痛的代价。而由于前一种因素-其外表效果不错,而且自称可做出非常准确并且经济价值很高的预测,所以,这类模型更吸引人,更易在学术期刊上推介。但是,假如这个模型是用噪声拟合的,就很有可能会阻碍经济的预测,进而阻挠经济发展。应该讲明的是,这些错误习以为
16、常。它影响我们,让我们更容易被 随机性捉弄 .我们可以能会越来越迷恋此模型的特质,甚至可能会创造出一个貌似很有讲服力的理论来佐证这一错误的合理性。 从逻辑的角度来看,这有点像观测者效应长被误以为海森堡的不确定性原理:一旦我们开场测量某物,它的行为就会主动乃至被动发生改变。大多数统计模型都是依托这一概念建立的,自变量与因变量、信号与噪声,相互之间泾渭分明,但在经济领域中,它们相互之间却混在一起、乱作一团。 三模型检验和预测 以统计检验着称的计量经济学,做普通的线性回归分析时,如研究自变量和因变量的关系时,对自变量回归系数采用t检验,计量经济学界公认t 0.05就讲明两变量相关,精到准确度则在95
17、%以上。计量经济学学者在收集样本的时候应用一整套的方式方法减少错误发生的概率。在统计检验之前,他们也会检测样本能否存在潜在的系统性偏差。这些躲避错误的手段无不在美化结果。一味的追求 精到准确性 ,无时不在驱使着统计计量学家去挖掘愈加 智能 的算法系统模型。回归分析有一些值得提出的基本分歧:在回归分析中,对解释变量和因变量的处理方式方法存在着不对称性。因变量被当作是随机的、统计的,也就是因变量有一个概率分布。而解释变量则被看作是在重复抽样中获得固定值。解释变量本身也是随机的。但是出于回归分析的目的,计量经济学学者假定它们的值在重复抽样中固定不变即X在不同的多个样本中取同样的一组值,进而把它们转变
18、成本质上非随机的。 计量经济模型通过实证检验拟合成功后,可用来检验经济理论或经济假讲的正确性以及提供政策建议,当然最终要预测将来经济的走向。模型的质量决定预测的质量:墨菲提出,衡量预测的一种途径-或许也是最显而易见的途径-就是通过他所讲的 质量 ,但何种质量才可被认定为准确呢? 质量 是指预测与实际天气相符合吗?无论预测得多么准确,这个预测是预测者当时的巅峰之作吗?这个预测能否反映了预测者的最佳判定呢?公之于众之前,这个预测能否作了某种程度的修饰呢?预测能否有经济价值,判定的根据就是,预测能否有助于公众或政治决策者做出更好的决定或决策。 经济理论或模型作为对复杂现实经济的简化抽象,只能刻画主要
19、的或重要的经济因素。而实际观测到的数据却是由很多因素共同作用的结果,失败预测的模型可能应用非样本数据,华而不实有些因素是未知的或不可观测的,并没有包括在经济模型中,或者数据的 信噪比 过低,因而反映不出它们的影响,而计量经济学学者却没有足够的能力和技术做出甄别。这点与自然科学不同,自然科学研究能够通过可控实验过滤或消除次要因素的影响。在经济学领域,经济学家通常是数据的使用方,大多数收集到的经济数据都是非实验性的。因而无法从观测到的经济数据过滤出经济模型以外的因素所产生的那一部分影响,这便造成经济实证研究的困难。 经济数据和经济系统的上述特征,不可避免地造成了计量经济学实证研究的局限性,使之难以
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 文化交流
限制150内