《支持向量机原理.pptx》由会员分享,可在线阅读,更多相关《支持向量机原理.pptx(36页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、本讲主要内容u一.支持向量机u二.最大间隔分类器u三.核函数u四.软间隔优化u五.支持向量机总结第1页/共36页一.SVM warming up u 1.1 SVM概念简介u 1.2 超平面 u 1.3 logistic回归u 1.4 形式化表示u 1.5 函数间隔与几何间隔 第2页/共36页1.1 SVMSVM概念简介支持向量机(SVM)是 90 年代中期发展起来的基于统计学习理论的一种机器学习方法,通过寻求结构化风险最小来提高学习机泛化能力,实现经验风险和置信范围的最小化,从而达到在统计样本量较少的情况下,亦能获得良好统计规律的目的。通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间
2、上的间隔最大的线性分类器,即支持向量机的学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解。第3页/共36页1.2 1.2 超平面 超平面H是从n维空间到n-1维空间的一个映射子空间。设d是n维欧式空间R中的一个非零向量,a是实数,则R中满足条件dX=a的点X所组成的集合称为R中的一张超平面。第4页/共36页1.3 logistic1.3 logistic回归Logistic 回归目的是从特征学习出一个 0/1 分类模型,而这个模型是将特性的线性组合作为自变量,由于自变量的取值范围是负无穷到正无穷。因此,使用logistic 函数(或称作 sigmoid 函数)将自变量映射到(0,1
3、)上,映射后的值被认为是属于 y=1 的概率。第5页/共36页1.3 logistic1.3 logistic回归形式化表示:假设函数为:x 是 n 维特征向量,函数 g 就是 logistic 函数。其中 图像如图所示:可以看到,将无穷映 射到了(0,1)第6页/共36页1.4 1.4 形式化表示结果标签是y=-1,y=1,替换logistic回归中的y=0和y=1。同时将替换成w和b。以前的 ,其中认为 。现在我们替换 为b,后面 替换为 (即 )。我们只需考虑 的正负问题,而不用关心g(z),因此我们这里将g(z)做一个简化,将其简单映射到y=-1和y=1上。映射关系如下:第7页/共36
4、页1.5 1.5 函数间隔与几何间隔定义函数间隔为:x是特征,y是结果标签。i表示第i个样本。(这是单个样本)全局函数间隔:在训练样本上分类正例和负例确信度最小那个函数间隔第8页/共36页1.5 1.5 函数间隔与几何间隔几何间隔:全局几何间隔:第9页/共36页二.最大间隔分类器u 2.1 二次规划原问题建立u 2.2 拉格朗日对偶 2.2.1 等式约束 2.2.1 不等式约束u 2.3 最大间隔分类器第10页/共36页2.1 2.1 二次规划原问题建立形式1:形式2:形式3:第11页/共36页2.22.2拉格朗日对偶之等式约束问题:目标函数是f(w),通常解法是引入拉格朗日算子,这里使用来表
5、示算子,得到拉格朗日公式为:L是等式约束的个数。然后分别对w和求偏导,使得偏导数等于0,然后解出w和。第12页/共36页2.22.2拉格朗日对偶之不等式约束问题:利用拉格朗日公式变换:令知第13页/共36页2.22.2拉格朗日对偶之不等式约束原来要求的min f(w)可以转换成 求了。利用对偶求解:D的意思是对偶,将问题转化为先求拉格朗日关于w的最小值,将和看作是固定值。之后在 求最大值的话:第14页/共36页2.22.2拉格朗日对偶之不等式约束下面解释在什么条件下两者会等价。假设f和g都是凸函数,h是仿射的。并且存在w使得对于所有的i,。在这种假设下,一定存在 使得是 原问题的解,是对偶问题
6、的解。还有另外,满足库恩-塔克条件(Karush-Kuhn-Tucker,KKT condition),该条件如下:第15页/共36页2.3 2.3 最大间隔分类器重新回到SVM的优化问题:我们将约束条件改写为:第16页/共36页2.3 2.3 最大间隔分类器 从KKT条件得知只有函数间隔是1(离超平面最近的点)的线性约束式前面的系数 ,也就是说这些约束式 ,对于其他的不在线上的点(),极值不会在他们所在的范围内取得,因此前面的系数 .注意每一个约束式实际就是一个训练样本。第17页/共36页2.3 2.3 最大间隔分类器实线是最大间隔超平面,假设号的是正例,圆圈的是负例。在虚线上的点就是函数间
7、隔是1的点,那么他们前面的系数 ,其他点都是 。这三个点称作支持向量。构造拉格朗日函数如下:第18页/共36页2.3 2.3 最大间隔分类器下面我们按照对偶问题的求解步骤来一步步进行,首先求解 的最小值,对于固定的 ,的最小值只与w和b有关。对w和b分别求偏导数。第19页/共36页2.3 2.3 最大间隔分类器得到:代入后,结果如下:由于最后一项是0,因此简化为第20页/共36页2.3 2.3 最大间隔分类器此时的拉格朗日函数只包含了变量。然而我们求出了才能得到w和b。接着是极大化的过程第21页/共36页2.3 2.3 最大间隔分类器 前面提到过对偶问题和原问题满足的几个条件,首先由于目标函数
8、和线性约束都是凸函数,而且这里不存在等式约束h。存在w使得对于所有的i,因此,一定存在 使得 是原问题的解,是对偶问题的解。在这里,求 就是 求了。如果求出了,根据即可求出w(也是 ,原问题的解)。然后 即可求出b。即离超平面最近的正的函数间隔要等于离超平面最近的负的函数间隔。第22页/共36页三.核函数 u 3.1 核函数简介u 3.2 核函数有效性判定第23页/共36页3.1 3.1 核函数简介 建立一个R2R3的非线性映射计算R3中2个矢量的内积:定义核函数:,则:输入空间特征空间第24页/共36页3.1 3.1 核函数简介上个例子说明:特征空间中两个矢量之间的内积可以通过定义输入空间中
9、的核函数直接计算得到。这就启示我们可以不必定义非线性映射而直接在输入空间中定义核函数K来完成非线性映射。这样做的条件是:1.定义的核函数K能够对应于特征空间中的内积;2.识别方法中不需要计算特征空间中的矢量本身,而只须计算特征空间中两个矢量的内积。第25页/共36页3.1 3.1 核函数简介SVM的求解,最后归结为如下目标函数的优化:可以引入非线性映射,则目标函数变为:而权矢量为:判别函数:第26页/共36页3.2 3.2 核函数有效性判定(MercerMercer定理)作为核函数应满足如下条件:是 下的对称函数,对任意 ,且有:成立,则 可以作为核函数。或者 如果函数K K是上的映射(也就是
10、从两个n n维向量映射到实数域)。那么如果K K是一个有效核函数(也称为MercerMercer核函数),那么当且仅当对于训练样例,其相应的核函数矩阵是对称半正定的。第27页/共36页四.软间隔优化 4.1 规则化和不可分情况处理 4.2 坐标上升法 4.3 SMO优化算法第28页/共36页 4.1 4.1 规则化和不可分情况处理问题:拉格朗日变换:第29页/共36页4.1 4.1 规则化和不可分情况处理看看KKT条件的变化:第30页/共36页4.2 4.2 坐标上升法问题:第31页/共36页4.3 SMO4.3 SMO优化算法第32页/共36页五.支持向量机总结 SVM重点是拉格朗日对偶的重
11、要作用是将w的计算提前并消除w,使得优化函数变为拉格朗日乘子的单一参数优化问题。对比这么复杂的推导过程,SVM的思想确实那么简单。它不再像logistic回归一样企图去拟合样本点(中间加了一层sigmoid函数变换),而是就在样本中去找分隔线,为了评判哪条分界线更好,引入了几何间隔最大化的目标。第33页/共36页五.支持向量机总结 之后所有的推导都是去解决目标函数的最优化上了。在解决最优化的过程中,发现了w可以由特征向量内积来表示,进而发现了核函数,仅需要调整核函数就可以将特征进行低维到高维的变换,在低维上进行计算,实质结果表现在高维上。由于并不是所有的样本都可分,为了保证SVM的通用性,进行了软间隔的处理,导致的结果就是将优化问题变得更加复杂,然而惊奇的是松弛变量没有出现在最后的目标函数中。最后的优化求解问题,也被拉格朗日对偶和SMO算法化解,使SVM趋向于完美。第34页/共36页谢谢!第35页/共36页谢谢您的观看!第36页/共36页
限制150内