【人工智能】人工智能-6机器学习(3).ppt
《【人工智能】人工智能-6机器学习(3).ppt》由会员分享,可在线阅读,更多相关《【人工智能】人工智能-6机器学习(3).ppt(25页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、人工智能Artificial Intelligence,主讲:鲍军鹏 博士 西安交通大学电信学院计算机系 电子邮箱: 版本:2.0,6.4 统计学习,传统的统计学理论,即Fisher理论体系的前提条件 已知准确的样本分布函数 并且采样无穷多为 V. Vapnik提出小样本(有限样本)统计学习理论 小样本统计学习理论基于对学习错误(过学习,overfitting)和泛化能力之间关系的定量刻画, 不仅避免了对样本点分布的假设和数目要求, 还产生了一种新的统计推断原理结构风险最小化原理。,6.4.1 统计学习理论,函数估计模型 (1)G表示产生器,用于产生输入向量x; (2)S表示被观测的系统或者称
2、为训练器。训练器对每个输入x产生相应的输出y,并且输入和输出遵从某个未知联合概率F(x,y); (3)LM表示学习机。学习机能够实现一定的函数集f(x,a),a,其中是学习参数集合,学习参数既可能是向量也可能是函数。不同的a值就决定了不同的学习函数。 学习的问题就是从给定的函数集f(x,a),a中选择出能最好地逼近训练器响应的函数。,期望风险,损失的数学期望值就称为风险泛函(risk functional),也称为期望风险 。 学习的目标就是最小化风险泛函R(a),即风险最小化问题 。,经验风险,实际问题中,联合概率F(x,y)是未知的,所以就无法用风险泛函直接计算损失的期望值,也无法最小化。
3、于是实践中常用算术平均代替数学期望,从而得到经验风险泛函 当N时,经验风险Remp(a)才在概率意义下趋近于期望风险R(a)。传统的学习方法大多都是使经验风险最小化(Empirical risk minimization,ERM)。,小样本统计学习理论,即使样本数目很大,也不能保证经验风险的最小值与期望风险的最小值相近。 所以统计学习理论就要研究在样本数目有限的情况下,经验风险与期望风险之间的关系。其核心内容包括一下4点: 在什么条件下,当样本数目趋于无穷时,经验风险Remp(a)最优值趋于期望风险R(a)最优值(能够推广),其收敛速度又如何。也就是在经验风险最小化原则下的学习一致性条件。 如
4、何从经验风险估计出期望风险的上界,即关于统计学习方法推广性的界。 在对期望风险界估计的基础上选择预测函数的原则,即小样本归纳推理原则。 实现上述原则的具体方法。例如支持向量机(Support vector machine,SVM)就是一个具体的方法。,VC维,VC维的直观定义: 对一个指示函数集,如果存在h个样本能够被函数集中的函数按所有可能的2h种形式分开,则称函数集能够把h个样本打散。函数集的VC维就是它能打散的最大样本数目h。 所谓打散就是不管全部样本如何分布,总能在函数集中找到一个函数把所有样本正确地分为两类。 若对任意数目的样本都有函数能将它们打散,则函数集的VC维是无穷大。 有界实
5、函数的VC维可以通过用一定的阈值将它转化成指示函数来定义。,实数平面的VC维,实际上n维超平面的VC维是n+1 。,定理6.2 对于Rn中的m个点集,选择任何一个点作为原点,m个点能被超平面打散当且仅当剩余点的位置向量是线性独立的。 推论 Rn中有向超平面集的VC维是n+1。 因为总能找出n+1个点,选择其中一个作为原点,剩余n个点的位置向量是线性独立的。但无法选择n+2个这样的点,因为在Rn中没有n+2个向量是线性独立的。 VC维反映了函数集的学习能力 VC维越大则学习机器越复杂,容量越大。 线性函数的VC维等于其自由参数的个数。 但是一般来说,函数集的VC维与其自由参数的个数不相同。 实际
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工智能 机器 学习
限制150内