欢迎来到淘文阁 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
淘文阁 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    委托-代理基本模型.ppt

    • 资源ID:91546152       资源大小:284.49KB        全文页数:18页
    • 资源格式: PPT        下载积分:11.9金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要11.9金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    委托-代理基本模型.ppt

    第二讲 委托-代理理论 1 委托-代理理论的基本分析框架 委托-代理问题试图模型化如下一类问题:一个参与人(称为委托人)想使另一个参与人(称为代理人)按照委托人的利益选择行动,但委托人不能直接观察代理人选择了什么行动,能观测到的只是另一些变量,这些变量由代理人的行动和外生的随机因素共同决定。委托人的问题是如何根据这些观测到的信息来奖惩代理人,以激励其选择对委托人最有利的行动。Cont.v 用A 表示代理人所有可选择的行动的组合,aA表示代理人的一个特定行动。注意,尽管再许多模型中a 被简单地假定为代表工作努力水平的一维变量,理论上讲,行动a 可以是任何维度的决策向量。比如说,如果a(a1,a2),一种可能的解释是a1和a 分别代表代理人花在“数量”和“质量”上的工作时间。不过,在本章中,未来分析的方便,我们假定a 是代表代理人努力水平的一维变量。Contv 令 是不受代理人(和委托人)控制的外生随机变量(称为“自然状态”),是 的取值范围,在上的分布函数和密度函数分别为G()和g()(一般地我们假定 是连续变量;如果 只有有限个可能值,g()为概率分布)。在代理人选择行动a 后,外生变量 实现。a 和 共同决定一个可观测的结果x(a,)和一个货币收入(“产出”)(a,),其中(a,)的直接所有权属于委托人。Contv 我们假定 是a 的严格递增的凹函数(即给定,代理人工作越努力,产出越高,但努力的边际产出递减),是 的严格增函数(即较高的 代表较有利的自然状态)。委托人的问题是设计一个激励合同s(x),根据观测到的x 对代理人进行奖惩。我们要分析的问题是s(x)具有什么样的特征?Contv 假定委托人和代理人的v N M 期望效用函数分别为v(-s(x)和u(s()-c(a),其中v。即委托人和代理人都是风险规避者或风险中性者,努力的边际负效用是递增的。委托人和代理人的利益冲突首先来自假设 和c0;意味着委托人希望代理人多努力,而c0 意味i 代理人希望少努力。补充Contv 因此,除非委托人能对代理人提供足够的激励,否则,代理人不会如委托人希望的那样努力工作。v 假定分布函数G()、生产技术x(a,)和(a,)以及效用函数v(-s(x)和u(s()-c(a)都是共同知识;就是说,委托人和代理人在有关这些技术关系上的认识是一致的。是共同知识的假定意味着,如果委托人能观测到,也就可以知道a,反之亦然。这是为什么我们必须同时假定a 和 都不可观测的原因。Contv 委托人的期望效用函数可以表示如下:v 委托人的问题就是选择a 和s(x)最大化上述期望效用函数。但是,委托人在这样做的时候,面临着来自代理人的两个约束。第一个约束是参与约束(participationconstraint),即代理人从接受合同中得到的期望效用不能小于不接受合同时能得到的最大期望效用。Contv 代理人“不接受合同时能得到的最大期望效用”由他面临的其他市场机会决定,可以成为保留效用,用 代表。参与约束又称个人理性约束(individualrationalityconstraint),可以表述如下:v v 第二个月约束代理人的激励相容约束(incentivecompatibilityconstraint):给定委托人不能观测到代理人的行动a 和自然状态,在任何的激励合同下,代理人总是选择使自己的期望效用最大化的行动a,Contv 因此,任何委托人希望的a 都只能通过代理人的效用最大化行为实现。换言之,如果a 是委托人希望的行动,是代理人可选择的任何行动,那么,只有当代理人从选择a 中得到的期望效用大于从选择 中得到的期望效用时,代理人才会选择a。激励相容约束的数学表述如下:Contv 总结一下,委托人的问题是选择a 和 最大化期望效用函数,满足约束条件(IR)和(IC)即:Contv 以上的模型化方法被称为“状态空间模型化方法”(state-spaceformulation)。这种模型化方法由威尔逊(Wilson,1969),斯宾塞和泽克豪森(SpenceandZeckhauser,1971)及罗斯(Ross,1973)最初使用,它的好处是每一种技术关系都非常直观地表述出来,问题是从这种模型化方法中,我们得不到从经济学上讲有信息量的解(如果s(x)不限制在有限区域,解甚至不存在)。Contv 另一种等价的但更方便的模型化方法是由莫里斯(Mirrless,1974,1976)和霍姆斯特姆(Holmstrom,1979)开始使用的“分布函数的参数化方法”。简单的说,这种方法是将上述自然状态 的分布函数转换为结果x 和 的分布函数。给定的分布函数G(),对应每一个a,存在一个x 和的分布函数,这个新的分布函数通过技术关系x(a,)和(a,)从原分布函数G()导出。我们用F(x,a),f(x,a)分别代表所导出的分布函数和对应的密度函数。Contv 在状态空间模型化方法中,效用函数对自然状态取期望值;在参数化方法中,效用函数对观测变量x 取期望值。委托人的问题可以表述如下:Contv 委托代理理论的第三种模型化方法是所谓的“一般化分布方法”。从上面的分析可以看出,代理人在不同行动之间的选择等价于在不同的分布函数之间的选择,因此,我们可以将分布函数本身当作选择变量,将a 从模型中消掉。如果我们令p 为x 和的一个密度函数,P 为所有可选择的密度函数的集合,c(p)为p 的成本函数,那么,委托人的问题可以表述如下:ContContv 在这样的表述中,关于行动和成本的经济学解释消失了,但我们得到非常简练的一般化模型,这个一般化模型甚至可以包括隐藏信息模型。v 在上述三种模型化方法中,参数化方法可以说已成为标准方法。在以后的分析中,我们将假定产出是可观测变量,并且只有 是可观测的,因此x。此时,委托人对代理人的奖惩只能根据观测的产出 作出,委托人的问题变成:Cont

    注意事项

    本文(委托-代理基本模型.ppt)为本站会员(wuy****n92)主动上传,淘文阁 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知淘文阁 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于淘文阁 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号 © 2020-2023 www.taowenge.com 淘文阁 

    收起
    展开