偏最小二乘回归方法(PLS).docx
《偏最小二乘回归方法(PLS).docx》由会员分享,可在线阅读,更多相关《偏最小二乘回归方法(PLS).docx(14页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、偏最小二乘回归方法1 偏最小二乘回归方法(PLS)背景介绍在经济管理、教育学、农业、社会科学、工程技术、医学和生物学中,多元线性回归分析是一种普遍应用的统计分析与预测技术。多元线性回归中,一般采用最小二乘方法(Ordinary Least Squares :OLS)估计回归系数,以使残差平方和达到最小,但当自变量之间存在多重相关性时,最小二乘估计方法往往失效。而这种变量之间多重相关性问题在多元线性回归分析中危害非常严重,但又普遍存在。为消除这种影响,常采用主成分分析(principal Components Analysis :PCA)的方法,但采用主成分分析提取的主成分,虽然能较好地概括自变
2、量系统中的信息,却带进了许多无用的噪声,从而对因变量缺乏解释能力。最小偏二乘回归方法(Partial Least Squares Regression:PLS)就是应这种实际需要而产生和发展的一种有广泛适用性的多元统计分析方法。它于1983年由S.Wold和C.Albano等人首次提出并成功地应用在化学领域。近十年来,偏最小二乘回归方法在理论、方法和应用方面都得到了迅速的发展,己经广泛地应用在许多领域,如生物信息学、机器学习和文本分类等领域。偏最小二乘回归方法主要的研究焦点是多因变量对多自变量的回归建模,它与普通多元回归方法在思路上的主要区别是它在回归建模过程中采用了信息综合与筛选技术。它不再
3、是直接考虑因变量集合与自变量集合的回归建模,而是在变量系统中提取若干对系统具有最佳解释能力的新综合变量(又称成分),然后对它们进行回归建模。偏最小二乘回归可以将建模类型的预测分析方法与非模型式的数据内涵分析方法有机地结合起来,可以同时实现回归建模、数据结构简化(主成分分析)以及两组变量间的相关性分析(典型性关分析),即集多元线性回归分析、典型相关分析和主成分分析的基本功能为一体。下面将简单地叙述偏最小二乘回归的基本原理。2 偏最小二乘法的工作目标2.1 偏最小二乘法的工作目标在一般的多元线性回归模型中,如果有一组因变量Y=y1,yq和一组自变量X=x1,xp,当数据总体能够满足高斯马尔科夫假设
4、条件时,根据最小二乘法,有=X(XTX)-1XTY将是Y的一个很好的估计量。从这个公式容易看出,由于(XTX)必须是可逆矩阵,所以当X中的变量存在严重的多重相关性时,或者在X中的样本点数与变量个数相比显然过少时,这个最小二乘估计都会失效并将引发一系列应用方面的困难。考虑到这个问题,偏最小二乘回归分析提出了采用成分提取的方法。在主成分分析中,对于单张数据表X,为了找到能最好地概括原数据的综合变量,在X中提取了第一主成分F1,使得F1中所包含的原数据变异信息可达到最大,即Var(F1)max在典型相关分析中,为了从整体上研究两个数据表之间的相关关系,分别在X和Y中提取了典型成分F1和G1,它们满足
5、r(F1,G1) maxF1T F1=1G1T G1=1在能够达到相关度最大的综合变量F1和G1之间,如果存在明显的相关关系,则可以认为,在两个数据表之间亦存在相关关系。提取成分的做法在数据分析的方法中十分常见,除主成分、典型成分以外,常见到的还有Fisher判别法中的判别成分。实际上,如果F是X数据表的某种成分,则意味着F是X中变量的某一线性组合F=Xa,而F作为一个综合变量,它在X中所综合提取的信息,将满足我们特殊的分析需要。2.2 偏最小二乘回归分析的建模方法设有q个因变量y1,yq和p个自变量x1,xp,为了研究因变量与自变量的统计关系,观测n个样本点,由此构成了自变量与因变量的数据表
6、X=【x1,xp】n*p和Y=【y1,yq】n*q。偏最小二乘法回归分别在X与Y中提取出t1和u1(也就是说,t1是x1,xp的线性组合,u1是y1,yq的线性组合)。在提取这两个成分时,为了回归分析的需要,有下列两个要求:(1) t1和u1应尽可能大地携带它们各自数据表中的变异信息(2) t1和u1的相关程度能达到最大这两个要求表明,t1和u1应尽可能好地代表数据表X和Y,同时自变量的成分t1对因变量的成分u1又有最强的解释能力。在第一个成分t1和u1被提取后,偏最小二乘法回归分别实施X对t1的回归以及Y对t1的回归。如果方程达到了满意的精度,则算法终止;否则,将利用X被t1解释后的残余信息
7、以及Y被t1解释后的残余信息进行第二轮的成分提取。如此递推,直到能达到一个较为满意的精度为止。若最终对X共提取了m个成分t1,tm,偏最小二乘法回归将通过实施YK对t1,tm的回归,然后再表达成YK关于原变量x1,xp的回归方程,k=1,q。3 计算方法推导3.1 普遍采用的计算推导过程为了数学推导方便起见,首先将数据做标准化处理。X经标准化处理后的数据矩阵记为E0=(E01,E0P)n*p,Y经过标准化处理后的数据矩阵记为F0=(F01,F0q)n*q。第一步,记t1是E0的第一个成分,t1=E0w1, w1是E0的第一个轴,它是一个单位向量,即|w1|=1;记u1是F0的第一个成分,u1=
8、F0c1, c1是F0的第一个轴,它是一个单位向量,即|c1|=1。如果要t1,u1能分别很好德代表X与Y中的数据变异信息,根据主成分分析原理,应该有Var(t1)maxVar(u1)max另一方面,由于回归建模的需要,又要求t1对u1有最大的解释能力,由典型相关分析的思路,t1与u1的相关度应达到最大值,即r(t1,u1)max因此综合起来,在偏最小二乘回归中,我们要求t1与u1协方差达到最大,即Cov(t1,u1)=Var(t1)Var(u1)r(t1,u1)max即求解下列优化问题maxw1T w1=1 (3-1)c1T c1=1因此,将在|w1|=1和|c1|=1的约束条件下,去求(w
9、1TE0TF0c1)的最大值。此种情况下我们就可以用拉格朗日算法求其最优解,记s= w1TE0TF0c1-1(w1T w1-1)- 2(c1T c1-1)对s分别求关于w1、c1、1、2的偏导,并令之为零,有 E0TF0c1-21 w1=0 (3-2) F0TE0w1-22 c1=0 (3-3) -( w1T w1-1)=0 (3-4) -( c1T c1-1)=0 (3-5)由(3-2)(3-5)可以推出21=22= w1TE0TF0c1=记1=21=22= w1TE0TF0c1,所以1是优化问题的目标函数值。把式(3-2)和式(3-3)写成 E0TF0c1= 1 w1 (3-6) F0TE
10、0w1= 1 c1 (3-7) 将式(3-7)代入式(3-6),有 E0TF0F0TE0w1= 12 w1 (3-8)由式(3-8)可知,w1是矩阵E0TF0F0TE0特征向量,对应的特征值为12,1是目标函数值,要求取得其最大值,所以w1是对应于矩阵E0TF0F0TE0最大特征值12的单位特征向量。求得轴w1和c1后,即可得到成分t1=E0w1u1=F0c1然后,分别求E0和F0对t1和u1的回归方程其中,向量;E1,F1*,F1为回归方程的残差矩阵。 第2成分t2的提取,以E1取代E0 , F1取代F0 , 用上面的方法求第2个轴W2和第2个成分t2 ,有 同样,E1 , F1分别对t2做
11、回归, 得到同理可推得第h 成分th , h 的个数可以用交叉有效性原则进行, h 小于X 的秩。如此计算下去,如果X的秩为A,则会有E0=t1P1T+tAPATF0= t1r1T+tArAT+FA由于t1,tA均可以表示成E01,E0P的线性组合,因此,上式可以还原成YK= F0K关于XJ=E0J的回归方程形式YK=bk1X1+ bkPXP+FAK k=1,.,q3.2一种简洁的计算推导过程3.1中介绍的推导思路是最为常见的,在3.2中将介绍一种更为简洁的计算方法,即直接在E0,Em-1矩阵中提取成分t1,tm(mp)。要求th能尽可能多地携带X中的信息,同时,th对因变量系统F0有最大的解
12、释能力。这时无需在F0中提取成分uh,并且在迭代算法中也无需使用其残差矩阵,而始终直接用F0进行计算。这可以使计算过程大为简化,并且对算法结论的解释也更为方便。下面讨论成分t1,tm(m=A,A=R(X)的一种新原则。在3.1中推导偏最小二乘法回归算法时,第一步的思路是在因变量F0抽取一个成分u1=F0c1,同时在自变量E0中抽取一个成分t1=E0w1,成分的抽取原则是max。在这个原则下得知w1,c1,u1,t1的计算方法如下:(1)w1是矩阵E0TF0F0TE0最大特征值的特征向量,成分t1=E0w1;(2)c1是矩阵F0TE0E0TF0最大特征值的特征向量,成分u1=F0c1;在求得成分
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 最小 回归 方法 PLS
限制150内