从理论到应用——浅谈lasso模型精品资料.doc
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《从理论到应用——浅谈lasso模型精品资料.doc》由会员分享,可在线阅读,更多相关《从理论到应用——浅谈lasso模型精品资料.doc(9页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、本科生学年论文题目:从理论到应用-浅谈lasso模型指导教师: 学院: 姓名: 学号: 班级: 从理论到应用-浅谈lasso模型【摘要】回归模型是我们在处理数据中常用的方法。其中,Lasso模型是一种适用于多重共线性问题,能够在参数估计的同时实现变量的选择的回归方法。本文从lasso模型的概念谈起,对其起源、思想、与岭回归的比较、通过lar的算法实现等方面进行了探究。另外还使用R语言对简单案例进行lasso模型的应用。最后简述了lasso模型的研究现状。【abstract】Regression model is our commonly used method in processing da
2、ta。 Lasso model is a kind of regression method for multiple linear problems, which can be used to achieve parameter estimation and variable selection at the same time. This paper starts from the concept of the lasso model, including its origin, ideas, and the comparison of ridge regression, through
3、lar algorithm implementation, etc. In addition, using R language to solve a simple case through lasso。 At last, the research status of lasso model is introduced。【关键词】Lasso岭回归最小角回归R语言【key words】Lassoridge regressionlarR language目录一、 定义及基本信息4二、 起源与原理4三、 模型的思想4四、 Lasso与岭回归51、 岭回归的概念52、 Lasso与岭回归的比较5五、
4、Lasso的算法步骤61、 lasso算法实现的背景62、 最小角回归73、 用lar实现lasso7六、 案例分析81、 问题描述82、 简单线性回归求解93、 利用lasso求解11七、 应用与研究现状12八、 参考资料13一、 定义及基本信息Lasso模型是由Robert Tibshirani在1996年JRSSB上的一篇文章Regression shrinkage and selection via the lasso所提出的一种能够实现指标集合精简的估计方法。在参数估计的同时实现变量的选择(可以解决回归分析中的多重共线性问题).全称:Least Absolute Shrinkage
5、and Selection Operator读音:lsu: 而不是lsoRobert Tibshirani 简介:生于1956年7月10日,担任斯坦福大学the Departments of Statistics and Health Research and Policy的教授。1985-1998年担任多伦多大学的教授。 他主要研究方向是致力于开发处理复杂数据的分析统计工具。Lasso模式是他最著名的贡献.同时在著名的 ”Generalized Additive Models, ”An Introduction to the Bootstrap, and The Elements of St
6、atistical Learning”三本书中都有他的编著。1二、 起源与原理在常规的回归分析中,假设我们有一组(xi,yi),i=1,2,.,N,其中xi=(xi1,.。,xip)T,yi是第i维观测值的回归量的数据。普通最小二乘(OLS)通过最小化残差平方和来进行估计。它对数据的分析不那么令人满意通常有两个原因。一是预测精度:OLS往往偏差较低但方差大;预测精度有时可以用缩小或设置一些系数为0的方法来提高。通过这样做,我们牺牲一点偏差减少预测的方差值,因此可以提高整体预测准确性。第二个原因是可解释性的问题。在大量的预测值中,我们通常想确定一个展现出最强影响的更小的子集。 两个公认优秀的改善
7、OLS估计的方法是子集选择(subset selection)和岭回归(ridge regression)它们都有缺点。子集选择提供了可解释的模型但是可变性非常强,因为它是一个离散的过程回归量要么保留要么从模型中去掉.小的数据变化就会使得模型的选择改变,这会降低预测准确度.岭回归是连续缩小参数的过程,因此更稳定:然而它不会使得任何参数为0,没办法得出简单的可解释的模型.lasso模型就此提出,The least absolute shrinkage and selection operator,同时缩小(shrinkage)和设置成参数为0(selection),保持了子集选择和岭回归的良好特
8、征。2三、 模型的思想lasso是在回归系数的绝对值之和小于一个常数的约束条件下,使残差平方和最小化,从而能够产生某些严格等于0的回归系数,得到解释力较强的模型.给出一组测量数据x1, x2 。.。xp以及测量结果y,lasso符合线性模型yhat=b0 + b1x1+ b2x2 + 。. bpxp 它所使用的标准是: 当| bj = s时,使得(yyhat)2最小最初的和是根据观察数据集得来的。边界”s是一个调谐参数.当s很大时,约束起不到作用,解决方案只是常见的多元线性最小二乘回归的关于y,x1,x2,xp的函数。然而当s变小时,解决方案就是缩小的版本最小二乘(least squares)
9、估计。通常一些系数bj为零。选择s就像选择一个回归模型的预报器的数值,交叉验证(crossvalidation)是估计s最佳值的一个好办法。3四、 Lasso与岭回归1、 岭回归的概念岭回归(ridge regression)是一种专用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际、更可靠的回归方法,对病态数据的拟合要强于最小二乘法。它的数学表达式如下:即在回归系数的平方和小于一个常数的约束条件下,使残差平方和最小化。2、 Lasso与岭回归的比较下面是lasso写成相同形式的表达式。可以
10、看出Lasso与岭回归的区别就是约束条件不一样,一个是回归系数绝对值之和小于一个常数,一个是平方和小于一个常数。Lasso的约束条件是线性的,而ridge是L2norm。通过这幅图可以很明显的看出岭回归和lasso之间的差异。图中是两个变量回归的情况,等高线图表示的是残差平方和的等高线。残差在最小二乘估计处最小。阴影部分分别是岭回归和lasso的限制区域。显然圆形为岭回归,菱形为lasso的。这两种带有惩罚项的方法都是要找到第一个落到限制区域上的等高线的那个位置的坐标(即岭估计和lasso估计)。因为菱形带尖角,所以更有可能使得某个变量的系数为0(即所找到的第一个点是菱形四个顶点之一).当回归
11、变量增多时,lasso的尖角也会变得更多,从而增大更多系数变0的可能性.而光滑的高维球面的显然不可能有这样的概率.这也就是说lasso可以用于变量选择。这是lasso相较于ridge有优势的一点。五、 Lasso的算法步骤Lasso的算法实现与lar(least angle regression)有密不可分的关系。1、 lasso算法实现的背景Tibshirani在The Science of Bradley Efron这本书的序言里写道,”He sat down and pretty much single-handedly solved the problem. Along the way
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 理论 应用 浅谈 lasso 模型 精品 资料
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内