支持向量机及其应用.ppt
《支持向量机及其应用.ppt》由会员分享,可在线阅读,更多相关《支持向量机及其应用.ppt(67页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、Page 1数学与计算机学院数学与计算机学院数学与计算机学院数学与计算机学院 彭宏彭宏彭宏彭宏支持向量机及其应用支持向量机及其应用支持向量机及其应用支持向量机及其应用Support Vector Machines and its ApplicationSupport Vector Machines and its Application智能算法讲座(一)智能算法讲座(一)智能算法讲座(一)智能算法讲座(一)Page 2Page 3目录目录u 线性可分的支持向量(分类)机线性可分的支持向量(分类)机u 线性支持向量(分类)机线性支持向量(分类)机u 支持向量(分类)机支持向量(分类)机u 最小二
2、乘支持向量(分类)机最小二乘支持向量(分类)机u 硬硬-带带支持向量(回归)机支持向量(回归)机u 软软-带带支持向量(回归)机支持向量(回归)机u -支持向量(回归)机支持向量(回归)机u 最小二乘支持向量(回归)机最小二乘支持向量(回归)机u 支持向量机应用支持向量机应用Page 4SVM的描述的描述u SVM是一种基于统计学习理论的模式识别方是一种基于统计学习理论的模式识别方法,它是由法,它是由Boser,Guyon,Vapnik在在COLT-92上上首次提出,从此迅速的发展起来,现在已经首次提出,从此迅速的发展起来,现在已经在许多领域(生物信息学,文本,图像处理,在许多领域(生物信息学
3、,文本,图像处理,语言信号处理和手写识别等)都取得了成功语言信号处理和手写识别等)都取得了成功的应用的应用uCOLT(Computational Learning Theory)Page 5SVM的描述的描述u目标:目标:找到一个超平面,使得它能够尽可能多找到一个超平面,使得它能够尽可能多的将两类数据点正确的分开,同时使分开的两的将两类数据点正确的分开,同时使分开的两类数据点距离分类面最远。类数据点距离分类面最远。u解决方法:解决方法:构造一个在约束条件下的优化问题,构造一个在约束条件下的优化问题,具体的说是一个约束二次规划问题具体的说是一个约束二次规划问题(constrained quadr
4、atic programing),求解该问题,得到分类器。求解该问题,得到分类器。Page 6模式识别问题的一般描述模式识别问题的一般描述u 已知:已知:n个观测样本,个观测样本,(x1,y1),(x2,y2)(xn,yn)u 求:最优函数求:最优函数y=f(x,w)u 满足条件:期望风险最小满足条件:期望风险最小u 损失函数损失函数Page 7SVM的描述的描述u 期望风险期望风险R(w)要依赖联合概率要依赖联合概率F(x,y)的信息,的信息,实际问题中无法计算。实际问题中无法计算。u 一般用经验风险一般用经验风险Remp(w)代替期望风险代替期望风险R(w)Page 8一般模式识别方法的问
5、题一般模式识别方法的问题u 经验风险最小不等于期望风险最小,不能保证经验风险最小不等于期望风险最小,不能保证分类器的推广能力分类器的推广能力.u 经验风险只有在样本数无穷大趋近于期望风险,经验风险只有在样本数无穷大趋近于期望风险,需要非常多的样本才能保证分类器的性能。需要非常多的样本才能保证分类器的性能。u 需要找到经验风险最小和推广能力最大的平衡需要找到经验风险最小和推广能力最大的平衡点。点。Page 9一、线性可分的支持向量(分类)机首先考虑线性可分情况。设有如下两类样本的训练集:首先考虑线性可分情况。设有如下两类样本的训练集:线性可分情况意味着存在线性可分情况意味着存在超平面超平面使训练
6、点中的正类和使训练点中的正类和负类样本分别位于该超平面的两侧。负类样本分别位于该超平面的两侧。如果能确定这样的参数对(如果能确定这样的参数对(w,bw,b)的话的话,就可以构造就可以构造决策函数决策函数来进行来进行识别新样本。识别新样本。Page 10线性可分的支持向量(分类)机问题是问题是:这样的参数对(:这样的参数对(w,bw,b)有许多。)有许多。解决的方法是采用最大间隔原则。解决的方法是采用最大间隔原则。最大间隔原则最大间隔原则:选择使得训练集:选择使得训练集D D对于线性函数对于线性函数(wx)+b的几何间隔取最大值的参数对的几何间隔取最大值的参数对(w,b)(w,b),并,并由此构
7、造决策函数。由此构造决策函数。在规范化下,超平面的几何间隔为在规范化下,超平面的几何间隔为于是,找最大于是,找最大几何间隔的超平面几何间隔的超平面表述成如下的最优化问题:表述成如下的最优化问题:(1)(1)Page 11线性可分的支持向量(分类)机 为求解问题为求解问题(1),(1),使用使用Lagrange乘子法乘子法将其转化为对偶问题。将其转化为对偶问题。于是引入于是引入Lagrange函数函数:其中,其中,称为称为Lagrange乘子。乘子。首先求首先求Lagrange函数关于函数关于w,bw,b的极小值。由的极小值。由极值条件有:极值条件有:得到:得到:(2)(2)(3)(3)(4)(
8、4)Page 12线性可分的支持向量(分类)机将将(3)(3)式代入式代入Lagrange函数,并利用函数,并利用(4)(4)式,则原始的优化问题式,则原始的优化问题转化为如下的转化为如下的对偶问题对偶问题(使用极小形式使用极小形式):这是一个凸二这是一个凸二次规划问题次规划问题有唯一的最优有唯一的最优解解(5)(5)求解问题求解问题(5)(5),得,得。则参数对。则参数对(w,b)(w,b)可由下式计算:可由下式计算:Page 13线性可分的支持向量(分类)机支持向量:支持向量:称训练集称训练集D中的样本中的样本xi为支持向量,如为支持向量,如 果它对应的果它对应的i*0。根据原始最优化问题
9、的根据原始最优化问题的KKTKKT条件,有条件,有于是,支持向量正好在间隔边界上于是,支持向量正好在间隔边界上。于是,得到如下的决策函数:于是,得到如下的决策函数:Page 14目录目录u 线性可分的支持向量(分类)机线性可分的支持向量(分类)机u 线性支持向量(分类)机线性支持向量(分类)机u 支持向量(分类)机支持向量(分类)机u 最小二乘支持向量(分类)机最小二乘支持向量(分类)机u 硬硬-带带支持向量(回归)机支持向量(回归)机u 软软-带带支持向量(回归)机支持向量(回归)机u -支持向量(回归)机支持向量(回归)机u 最小二乘支持向量(回归)机最小二乘支持向量(回归)机u 支持向量
10、机应用支持向量机应用Page 15二、线性支持向量(分类)机现在考虑现在考虑线性不可分情况线性不可分情况。对于训练集。对于训练集D D,不存在这样的,不存在这样的超平面,使训练集关于该超平面的几何间隔取正值。如超平面,使训练集关于该超平面的几何间隔取正值。如果要用超平面来划分的话,必然有错分的点。果要用超平面来划分的话,必然有错分的点。但我们任希望使用超平面进行分划,这时应但我们任希望使用超平面进行分划,这时应“软化软化”对间隔的要求,即容许不满足约束条件的样本点存在。对间隔的要求,即容许不满足约束条件的样本点存在。为此,引入松弛变量为此,引入松弛变量并并“软化软化”约束条件:约束条件:iPa
11、ge 16线性支持向量(分类)机为了避免为了避免 i i取太大的值,需要在目标函数中对它们进行取太大的值,需要在目标函数中对它们进行惩罚。于是惩罚。于是原始优化问题原始优化问题变为:变为:其中其中C0C0称为称为惩罚因子。惩罚因子。(6)(6)Page 17线性支持向量(分类)机类似前面,通过引入如下的类似前面,通过引入如下的Lagrange函数:函数:得到如下的对偶问题:得到如下的对偶问题:(7)(7)Page 18线性支持向量(分类)机求解对偶问题求解对偶问题(7),(7),可得如下决策函数:可得如下决策函数:支持向量有下列性质:支持向量有下列性质:(1)(1)界内支持向量一定位于间隔边界
12、上界内支持向量一定位于间隔边界上 的正确划分区;的正确划分区;(2)(2)支持向量不会出现在间隔以外的支持向量不会出现在间隔以外的 正确划分区;正确划分区;(3)(3)非支持向量一定位于带间隔的正确划分区。非支持向量一定位于带间隔的正确划分区。Page 19目录目录u 线性可分的支持向量(分类)机线性可分的支持向量(分类)机u 线性支持向量(分类)机线性支持向量(分类)机u 支持向量(分类)机支持向量(分类)机u 最小二乘支持向量(分类)机最小二乘支持向量(分类)机u 硬硬-带带支持向量(回归)机支持向量(回归)机u 软软-带带支持向量(回归)机支持向量(回归)机u -支持向量(回归)机支持向
13、量(回归)机u 最小二乘支持向量(回归)机最小二乘支持向量(回归)机u 支持向量机应用支持向量机应用Page 20三、支持向量(分类)机对于一般的对于一般的非线性可分情况非线性可分情况。对于训练集。对于训练集D D,无法寻找到,无法寻找到来如前的超平面来划分。来如前的超平面来划分。Page 21支持向量(分类)机下面通过下面通过核技术核技术来处理。引入一个来处理。引入一个非线性映射非线性映射 把把输入空间输入空间映射到一个映射到一个(高维的高维的)Hilbert空间空间H,使数据在使数据在H中是线性可分中是线性可分或线性不可分:或线性不可分:输入空间输入空间Xi Hilbert空间空间H线性线
14、性可分可分线性线性不可分不可分Page 22在核映射下,在核映射下,D D对应于对应于Hilbert空间空间H的训练集为:的训练集为:支持向量(分类)机于是在于是在Hilbert空间空间H中寻找使几何间隔最大的超平中寻找使几何间隔最大的超平面,其原始优化问题面,其原始优化问题为:为:(8)(8)Page 23问题问题(8)(8)对应的对偶问题为对应的对偶问题为:支持向量(分类)机(9)(9)求解对偶问题求解对偶问题(9),(9),可得如下决策函数:可得如下决策函数:Page 24b*问的计算如下问的计算如下:支持向量(分类)机选取选取的一个正分量的一个正分量0j*0或或j*0来计算来计算b:P
15、age 41硬硬-带带支持向量(回归)机支持向量(回归)机支持向量:支持向量:称训练集称训练集D中的样本中的样本xi为支持向量,为支持向量,如果它对应的如果它对应的i*0或i0。把把w的式子代入函数:的式子代入函数:于是,得到如下的回归函数:于是,得到如下的回归函数:y=(w.x)+b+y=(w.x)+b-y=(w.x)+bPage 42目录目录u 线性可分的支持向量(分类)机线性可分的支持向量(分类)机u 线性支持向量(分类)机线性支持向量(分类)机u 支持向量(分类)机支持向量(分类)机u 最小二乘支持向量(分类)机最小二乘支持向量(分类)机u 硬硬-带带支持向量(回归)机支持向量(回归)
16、机u 软软-带带支持向量(回归)机支持向量(回归)机u -支持向量(回归)机支持向量(回归)机u 最小二乘支持向量(回归)机最小二乘支持向量(回归)机u 支持向量机应用支持向量机应用Page 43软软-带带支持向量(回归)机支持向量(回归)机考虑软考虑软-带支持向量带支持向量线性线性回归回归情况。设有如下两类样本的训练集:情况。设有如下两类样本的训练集:同样希望使用一个线性函数来同样希望使用一个线性函数来回归回归样本点,且这种情况下,除了样本点,且这种情况下,除了大量样本点在大量样本点在-带内,还有少量的样本带内,还有少量的样本落在落在-带外。这时需要对带外。这时需要对落在落在-带外的样本进行
17、惩罚。于是带外的样本进行惩罚。于是原始优化问题原始优化问题为:为:y=(w.x)+b+y=(w.x)+b-y=(w.x)+bPage 44软软-带带支持向量(回归)机支持向量(回归)机 为求解上述原始优化问题为求解上述原始优化问题,使用使用Lagrange乘子法乘子法将其转化为对将其转化为对偶问题。于是引入偶问题。于是引入Lagrange函数函数:其中,其中,称为称为Lagrange乘子。乘子。首先求首先求Lagrange函数关于函数关于w,b,w,b,(*)(*)的极小值。由的极小值。由极值条件有:极值条件有:Page 45软软-带带支持向量(回归)机支持向量(回归)机将上式代入将上式代入L
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 支持 向量 及其 应用
限制150内