欢迎来到淘文阁 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
淘文阁 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    逻辑回归模型分析见解.doc

    • 资源ID:69708682       资源大小:232.87KB        全文页数:8页
    • 资源格式: DOC        下载积分:15金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要15金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    逻辑回归模型分析见解.doc

    1.逻辑回归模型1.1逻辑回归模型考虑具有p个独立变量的向量,设条件概率为根据观测量相对于某事件发生的概率。逻辑回归模型可表示为(1.1)上式右侧形式的函数称为称为逻辑函数。下图给出其函数图象形式。其中。如果含有名义变量,则将其变为dummy变量。一个具有k个取值的名义变量,将变为k-1个dummy变量。这样,有 (1.2)定义不发生事件的条件概率为 (1.3)那么,事件发生与事件不发生的概率之比为 (1.4)这个比值称为事件的发生比(the odds of experiencing an event),简称为odds。因为0<p<1,故odds>0。对odds取对数,即得到线性函数,(1.5)1.2极大似然函数假设有n个观测样本,观测值分别为设为给定条件下得到的概率。在同样条件下得到的条件概率为。于是,得到一个观测值的概率为(1.6)因为各项观测独立,所以它们的联合分布可以表示为各边际分布的乘积。 (1.7)上式称为n个观测的似然函数。我们的目标是能够求出使这一似然函数的值最大的参数估计。于是,最大似然估计的关键就是求出参数,使上式取得最大值。对上述函数求对数 (1.8)上式称为对数似然函数。为了估计能使取得最大的参数的值。对此函数求导,得到p+1个似然方程。 (1.9),j=1,2,.,p.上式称为似然方程。为了解上述非线性方程,应用牛顿拉斐森(Newton-Raphson)方法进行迭代求解。1.3牛顿拉斐森迭代法对求二阶偏导数,即Hessian矩阵为 (1.10)如果写成矩阵形式,以表示Hessian矩阵,表示 (1.11)令 (1.12)则。再令(注:前一个矩阵需转置),即似然方程的矩阵形式。得牛顿迭代法的形式为 (1.13)注意到上式中矩阵为对称正定的,求解即为求解线性方程中的矩阵。对进行cholesky分解。最大似然估计的渐近方差(asymptotic variance)和协方差(covariance)可以由信息矩阵(information matrix)的逆矩阵估计出来。而信息矩阵实际上是二阶导数的负值,表示为。估计值的方差和协方差表示为,也就是说,估计值的方差为矩阵的逆矩阵的对角线上的值,而估计值和的协方差为除了对角线以外的值。然而在多数情况,我们将使用估计值的标准方差,表示为,for j=0,1,2,p (1.14).显著性检验下面讨论在逻辑回归模型中自变量是否与反应变量显著相关的显著性检验。零假设:0(表示自变量对事件发生可能性无影响作用)。如果零假设被拒绝,说明事件发生可能性依赖于的变化。2.1 Wald test对回归系数进行显著性检验时,通常使用Wald检验,其公式为 (2.1)其中, 为的标准误差。这个单变量Wald统计量服从自由度等于的分布。如果需要检验假设:0,计算统计量 (2.2)其中,为去掉所在的行和列的估计值,相应地,为去掉所在的行和列的标准误差。这里,Wald统计量服从自由度等于p的分布。如果将上式写成矩阵形式,有 (2.3)矩阵是第一列为零的一常数矩阵。例如,如果检验,则。然而当回归系数的绝对值很大时,这一系数的估计标准误就会膨胀,于是会导致Wald统计值变得很小,以致第二类错误的概率增加。也就是说,在实际上会导致应该拒绝零假设时却未能拒绝。所以当发现回归系数的绝对值很大时,就不再用Wald统计值来检验零假设,而应该使用似然比检验来代替。2.2似然比(Likelihood ratio test)检验在一个模型里面,含有变量与不含变量的对数似然值乘以-2的结果之差,服从分布。这一检验统计量称为似然比(likelihood ratio),用式子表示为 (2.4)计算似然值采用公式(1.8)。倘若需要检验假设:0,计算统计量(2.5)上式中,表示0的观测值的个数,而表示的观测值的个数,那么n就表示所有观测值的个数了。实际上,上式的右端的右半部分表示只含有的似然值。统计量G服从自由度为p的分布2.3 Score检验在零假设:0下,设参数的估计值为,即对应的0。计算Score统计量的公式为(2.6)上式中,表示在0下的对数似然函数(1.9)的一价偏导数值,而表示在0下的对数似然函数(1.9)的二价偏导数值。Score统计量服从自由度等于的分布。2.4模型拟合信息模型建立后,考虑和比较模型的拟合程度。有三个度量值可作为拟合的判断根据。(1)-2LogLikelihood (2.7)(2) Akaike信息准则(Akaike Information Criterion,简写为AIC) (2.8)其中为模型中自变量的数目,为反应变量类别总数减,对于逻辑回归有S=2-1=1。-2LogL的值域为0至,其值越小说明拟合越好。当模型中的参数数量越大时,似然值也就越大,-2LogL就变小。因此,将(K+S)加到AIC公式中以抵销参数数量产生的影响。在其它条件不变的情况下,较小的AIC值表示拟合模型较好。(3)Schwarz准则这一指标根据自变量数目和观测数量对-2LogL值进行另外一种调整。SC指标的定义为 (2.9)其中ln(n)是观测数量的自然对数。这一指标只能用于比较对同一数据所设的不同模型。在其它条件相同时,一个模型的AIC或SC值越小说明模型拟合越好。3.回归系数解释3.1发生比odds=p/(1-p),即事件发生的概率与不发生的概率之比。而发生比率(odds ration),即(1)连续自变量。对于自变量,每增加一个单位,odds ration为 (3.1)(2)二分类自变量的发生比率。变量的取值只能为0或1,称为dummy variable。当取值为1,对于取值为0的发生比率为 (3.2)亦即对应系数的幂。(3)分类自变量的发生比率。如果一个分类变量包括m个类别,需要建立的dummy variable的个数为m-1,所省略的那个类别称作参照类(reference category)。设dummy variable为,其系数为,对于参照类,其发生比率为。3.2 逻辑回归系数的置信区间对于置信度-,参数的100%(-)的置信区间为 (3.3)上式中,为与正态曲线下的临界值(critical value), 为系数估计的标准误差,和两值便分别是置信区间的下限和上限。当样本较大时,0.05水平的系数的95%置信区间为 (3.4)4.变量选择4.1前向选择(forward selection):在截距模型的基础上,将符合所定显著水平的自变量一次一个地加入模型。具体选择程序如下(1) 常数(即截距)进入模型。(2) 根据公式(2.6)计算待进入模型变量的Score检验值,并得到相应的P值。(3) 找出最小的p值,如果此p值小于显著性水平,则此变量进入模型。如果此变量是某个名义变量的单面化(dummy)变量,则此名义变量的其它单面化变理同时也进入模型。不然,表明没有变量可被选入模型。选择过程终止。(4) 回到(2)继续下一次选择。4.2 后向选择(backward selection):在模型包括所有候选变量的基础上,将不符合保留要求显著水平的自变量一次一个地删除。具体选择程序如下(1) 所有变量进入模型。(2) 根据公式(2.1)计算所有变量的Wald检验值,并得到相应的p值。(3) 找出其中最大的p值,如果此P值大于显著性水平,则此变量被剔除。对于某个名义变量的单面化变量,其最小p值大于显著性水平,则此名义变量的其它单面化变量也被删除。不然,表明没有变量可被剔除,选择过程终止。(4) 回到(2)进行下一轮剔除。4.3逐步回归(stepwise selection)(1)基本思想:逐个引入自变量。每次引入对影响最显著的自变量,并对方程中的老变量逐个进行检验,把变为不显著的变量逐个从方程中剔除掉,最终得到的方程中既不漏掉对影响显著的变量,又不包含对影响不显著的变量。(2)筛选的步骤:首先给出引入变量的显著性水平和剔除变量的显著性水平,然后按下图筛选变量。(3)逐步筛选法的基本步骤逐步筛选变量的过程主要包括两个基本步骤:一是从不在方程中的变量考虑引入新变量的步骤;二是从回归方程中考虑剔除不显著变量的步骤。假设有p个需要考虑引入回归方程的自变量. 设仅有截距项的最大似然估计值为。对p个自变量每个分别计算Score检验值,设有最小p值的变量为,且有,对于单面化(dummy)变量,也如此。若,则此变量进入模型,不然停止。如果此变量是名义变量单面化(dummy)的变量,则此名义变量的其它单面化变量也进入模型。其中为引入变量的显著性水平。 为了确定当变量在模型中时其它p-1个变量也是否重要,将分别与进行拟合。对p-1个变量分别计算Score检验值,其p值设为。设有最小p值的变量为,且有.若,则进入下一步,不然停止。对于单面化变量,其方式如同上步。 此步开始于模型中已含有变量与。注意到有可能在变量被引入后,变量不再重要。本步包括向后删除。根据(2.1)计算变量与的Wald检验值,和相应的p值。设为具有最大p值的变量,即=max(),.如果此p值大于,则此变量从模型中被删除,不然停止。对于名义变量,如果某个单面化变量的最小p值大于,则此名义变量从模型中被删除。 如此进行下去,每当向前选择一个变量进入后,都进行向后删除的检查。循环终止的条件是:所有的p个变量都进入模型中或者模型中的变量的p值小于,不包含在模型中的变量的p值大于。或者某个变量进入模型后,在下一步又被删除,形成循环。

    注意事项

    本文(逻辑回归模型分析见解.doc)为本站会员(asd****56)主动上传,淘文阁 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知淘文阁 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于淘文阁 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号 © 2020-2023 www.taowenge.com 淘文阁 

    收起
    展开