支持向量机SVM学习.pptx
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《支持向量机SVM学习.pptx》由会员分享,可在线阅读,更多相关《支持向量机SVM学习.pptx(36页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、主要内容主要内容SVM基本原理SVM面临的一些问题TWIN SVM介绍SVM简介第1页/共36页支持向量机理论简介支持向量机理论简介支持向量机SVM(Support Vector Machine)是统计机器学习的一类重要算法,它根据统计学习理论,以结构风险最小化原则为理论基础的一种新的机器学习方法,能有效地解决高维数和非线性等问题,有效地进行分类、回归等。与其它分类器相比,SVM具有更好的泛化性。迄今为止,SVM已经在模式分类、回归分析、函数估计等领域有广泛的应用。第2页/共36页什么是什么是svm 原始区域 svm划分后的区域 第3页/共36页SVM基本原理基本原理线性可分类型线性可分类型问
2、题描述:我们要用一条直线,将上图中黑色的点和白色的点分开,很显然,图上的这条直线就是我们要求的直线之一(可以有无数条这样的直线)第4页/共36页SVM基本原理基本原理我们令深色的点=-1,浅色的点=+1,直线f(x)=W X+b,这里的W、X是向量,这种形式也等价于f(x)=W1X1+W2X2 +WnXn+b 当向量x的维度等于2的时候,f(x)表示二维空间中的一条直线,当x的维度=3的时候,f(x)表示3维空间中的一个平面,当x的维度=n 3的时候,表示n维空间中的n-1维超平面。当有一个新的点x需要预测属于哪个分类的时候,我们用sgn(f(x),就可以预测了 这里sgn表示符号函数 当f(
3、x)0时,sgn(f(x)=+1 当f(x)0时,sgn(f(x)=1 第5页/共36页SVM基本原理基本原理怎样才能取得一个最优的划分直线f(x)呢?下图的直线表示几条可能的f(x)第6页/共36页SVM基本原理基本原理一个很直观的感受是,让这条直线到给定样本中最近的点最远下面有两种划分方法 第一种 第二种右图中被红色和蓝色圈中的点即所谓的支持向量(support vector)第7页/共36页SVM基本原理基本原理原则:分割的间隙越大越好,把两个类别的点分得越开越好在SVM中,这种最大的分隔间隙称为Maximum Marginal,是SVM的一个理论基础。Classifier Bounda
4、ry就是f(x),红色和蓝色的线(plus plane与minus plane)就是support vector所在的面红色、蓝色线之间的间隙就是我们要最大化的分类间的间隙第8页/共36页SVM基本原理基本原理根据解析几何可得出M的表达式:经过一系列的数学变换,得出我们要优化求解的表达式:|w|的意思是w的二范数,跟上面的M表达式的分母意思相同,之前得到,M=2/|w|,最大化这个式子等价于最小化|w|,另外由于|w|是一个单调函数,为了方便求导,我们可以对其加入平方和前面的系数第9页/共36页SVM基本原理基本原理上式有还有一些限制条件,完整的表达方式如下:s.t.意为subject to,
5、即在后面这个限制条件下的意思,这个词在svm的论文里面出现的频率很高。这其实是一个带约束的二次规划(quadratic programming,QP)问题,是一个凸问题。凸问题就是指的不会有局部最优解,可以想象一个漏斗,不管我们开始的时候将一个小球放在漏斗的什么位置,这个小球最终一定可以掉出漏斗,也就是得到全局最优解。s.t.后面的限制条件可以看做是一个凸多面体,我们要做的就是在这个凸多面体中找到最优解。第10页/共36页SVM基本原理基本原理 这个优化问题可以用拉格朗日乘子法去解,使用了KKT条件的理论,这里直接给出这个式子的拉格朗日目标函数求解这个式子的过程需要拉格朗日对偶性的相关知识,首
6、先让L关于w,b最小化,分别令L关于w,b的偏导数为0,得到关于原问题的一个表达式第11页/共36页SVM基本原理基本原理 将两式带回L(w,b,a)得到对偶问题的表达式:第13页/共36页SVM基本原理基本原理新问题加上其限制条件是(对偶问题对偶问题):这个就是我们需要最终优化的式子。至此,得到了线性可分问题的优化式子。求解这个式子,有很多的方法,比如SMO等第14页/共36页SVM基本原理基本原理线性可分这种假设局限性比较大,接下来谈谈线性不可分的情况:下图就是一个典型的线性不可分的分类图,我们没有办法用一条直线去将其分成两个区域,使每个区域只包含一种颜色的点。线性不可分类型线性不可分类型
7、第15页/共36页SVM基本原理基本原理要想在这种情况下的分类器,有两种方式:第一种:用曲线去将其完全分开第16页/共36页SVM基本原理基本原理第二种:还是用直线,不过不用去保证可分性,就是包容那些分错的情况,这里我们得加入惩罚函数,使得点分错的情况越合理越好。很多时候,不是在训练的时候分类函数越完美越好,因为训练函数中有些数据本来就是噪声,可能就是在人工加上分类标签的时候出现了错误,如果在训练(学习)的时候把这些错误的点学习到了,那么模型在下次碰到这些错误情况的时候就难免出错。这种学习的时候学到了“噪声”的过程就是一个过拟合(over-fitting)第17页/共36页SVM基本原理基本原
8、理用直线怎么去分割线性不可分的点:我们可以为分错的点加上一点惩罚,对一个分错的点的惩惩罚函数罚函数就是这个点到其正确位置的距离:这个点到其正确位置的距离:在上图中,蓝色、红色的直线分别为支持向量所在的边界,绿色的线为决策函数,那些紫色的线表示分错的点到其相应的决策面的距离,这样我们可以在原函数上面加上一个惩罚函数,并且带上其限制条件为:第19页/共36页SVM基本原理基本原理 公式中蓝色的部分为在线性可分问题的基础上加上的惩罚函数部分,当xi在正确一边的时候,=0,R为全部的点的数目,C是一个由用户去指定的系数,表示对分错的点加入多少的惩罚,当C很大的时候,分错的点就会更少,但是过拟合的情况可
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 支持 向量 SVM 学习
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内