2022年支持向量机综述 .pdf
《2022年支持向量机综述 .pdf》由会员分享,可在线阅读,更多相关《2022年支持向量机综述 .pdf(15页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、上海大学2013 2014 学年 冬 季学期研究生课程考试小论文格式课程名称:模式识别方法课程编号: 09SB59004 论文题目 : 支持向量机原理及应用研究生姓名 : 章云元学 号: 13721278 论文评语 : 成 绩: 任课教师 : 李昕评阅日期 : 精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 1 页,共 15 页支持向量机原理及应用学号: 13721278 姓名:章云元日期: 2014.03.07 摘要: 支持向量机是从统计学发展而来的一种新型的机器学习方法,在解决小样本、非线性和高维的机器学习问题中表现出了许多特有的优势,但是,支
2、持向量机方法中也存在着一些亟待解决的问题,主要包括:如何用支持向量机更有效的解决多类分类问题,如何解决支持向量机二次规划过程中存在的瓶颈问题、如何确定核函数以及最优的核参数以保证算法的有效性等。本文详细介绍系统的阐述了统计学习理论、支持向量机理论以及支持向量机的主要研究热点,包括求解支持向量机问题、多类分类问题、参数优化问题、核函数的选择问题等。关键词: 机器学习;统计学习理论;SVM ;VC维;The principle and application of Support Vector Machine ABSTRACT : SVM(Support Vector Machine) is a
3、novel method of machine learning evolving from Statistics. SVM presents many own advantages in solving machine learning problems such as small samples, nonlinearity and high dimension. However, SVM methods exist some problems need to be resolved, mainly including how to deal with multi-classificatio
4、n effectively, how to solve the bottle-neck problem appearing in quadratic programming process, and how to decide kernel function and optimistical kernel parameters to guarantee effectivity of the algorithm.This paper has introduced in detail the structure, evolvement history, and kinds of classific
5、ation of machine learning, and demonstrated system SLT(Statistical Learning Theory), SVM and research hotspots of SVM, including seeking SVM problems, multi-classification, parameters optimization, kernel function selection and so on. Keywords: Machine learning, SLT, SVM, VC dimension 1. 引言1.1 支持向量机
6、研究背景及意义随着支持向量机的不断发展,人们对支持向量机的研究也越来越细化,其主要研究方向大致可分为:求解支持向量机问题,支持向量机多类分类问题,参数的选择和优化问题等。求解一个SVM问题最终都转化为解一个具有线性约束的凸规划问题或其对偶问题的二次规划问题 (Quadratic Programming,QP)。传统的方法是利用标准二次型优化技术解决对偶问题, 这就导致算法的训练速度很慢,一方面是由于SVM需要计算和存储核函数矩阵,当样本规模较大时必然导致内存需求增加;另一方面,SVM在二次寻优过程中要进行大量的矩阵运算, 多数情况下, 寻优算法占用了大部分的算法时间,这就使得存储空间和和计算时
7、间成了求解二次规划问题的瓶颈。常用的解决方法是将一个大的二次规划问题转化为若干个小的二次规划问题以提高分类效率,如块算法、分解算法、SMO 算法、增式算法等等。支持向量机分类理论是针对两类分类问题提出的,然而, 现实世界的分类问题,如船舰精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 2 页,共 15 页识别、 字体识别、人脸识别等,都属于多类分类的范畴。如何将二类分类方法扩展到多类分类情况是支持向量机方法研究的重要内容之一。目前,用 SVM 解决多类分类问题方法主要是通过构造或组合多个两类分类器来实现多类问题的分类。子分类器的构造和组合将两类分类
8、扩 展 到 多 类 问 题 , 将 多 类 分 类 问 题 逐 步 转 化 为 两 类 分 类 问 题 。 常 用 的 算 法 有“one-against-one”方法、“ one-against-rest”方法、“基于决策树的方法”等。支持向量机多类分类方法的引入拓展了支持向量机的应用范围,也加快了支持向量机方法的改进和创新, 同时, 支持向量机的核函数的选择以及核参数的选择也是一个重要的研究方向。2. 支持向量机的原理支持向量机 (Support Vector Machine,SVM) 是由 Vapnik 及其合作者共同创造与发展起来的一种新的机器学习方法,其核心内容在1992 年至 19
9、95 年间提出的。2.1 统计学习理论统计学习理论建立在一套较为坚实的理论基础之上,为解决有限样本的学习问题提供了一个统一的框架。 它能将许多现有的方法纳入其中,有望帮助解决许多原来难以解决的问题,比如神经网络的结构选择问题、局部最小点问题等。2.1.1机器学习问题机器学习问题1 可以看作是通过某种训练方法,对某一系统的输入与输出之间的依赖关系进行估计,并且期望这一估计可以对任意给定输入尽量准确地进行输出预测。一般地,机器学习问题可以表示为:假设变量y与x之间存在一定的未知依赖关系,即遵循某一未知的联合概率,F x y(x和y之间的确定性关系可以看作是其特例) , 机器学习问题就是根据n 个独
10、立同分布观测样本1122,.,nnx yxyxy,在一组函数,fx中求一个最优的函数,afx对依赖关系进行估计,使得期望风险最小。,LRy fxdFx y 2-(1) 其中,fx称作预测函数集,为函数的广义参数,,fx可以表示任何函数集;,L y fx为由于用,fx对y进行预测而造成的损失,不同类型的学习问题有不同形式的损失函数。在上面问题的表述中,学习的目标在于使期望风险最小化,但是, 由于可以利用的信息只有样本最初的观测样本1122,.,nnx yxyxy,因此,期望风险2-(1) 是无法计算的。传统的学习方法是采用了所谓经验风险最小化(ERM)准则 11 ,即用样本定义经验风险11,ne
11、mpiiiRLyfxn 2-(2) 精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 3 页,共 15 页来逼近3-(1) 定义的期望风险,用对参数求经验风险empR的最小值代替求期望风险R的最小化,这就是所谓的经验风险最小化原则。2.1.3VC维理论模式识别方法中VC维的直观定义是:对一个指示函数集,如果存在h个样本能够被函数集中的函数按所有可能的2h种形式分开,则称函数集能够把h个样本打散;函数集的VC维就是它能打散的最大样本数目h。若对任意数目的样本都有函数能将它们打散,则函数集的VC维是无穷大。VC维反映了函数集的学习能力,VC维越大则学习机
12、器越复杂( 容量越大 ) 。遗憾的是,目前尚没有通用的关于任意函数集VC维计算的理论,只确定了一些特殊的函数集的VC维。比如在n维实数空间中线性分类器和线性实函数的VC维是1n,对于一些比较复杂的学习机器( 如神经网络 ) ,其VC维除了与函数集 ( 神经网结构 ) 有关外,还受学习算法等的影响,其确定更加困难。但是,在实际应用统计学习理论时,可以通过变通的办法巧妙地避开直接求VC维的问题。2.1.4推广性的界统计学习理论系统地研究了对于各种类型的函数集,经验风险和实际风险之间的关系,即推广性的界。关于两类分类问题,结论是:对指示函数集中的所有函数 ( 包括使经验风险最小的函数) ,经验风险e
13、mpR和实际风险R之间以概率1满足如下关系:ln 21ln4emphn hRRn 2-(3) 其中h是函数集的VC维,n是样本数。这一结论从理论上说明了学习机器的实际风险是由两部分组成的:一是经验风险( 训练误差 ) ,另一部分称作置信范围,它和学习机器的VC维及训练样本数有关,可以简单地表示为:empRRh n 2-(4) 它表明,在有限训练样本下,学习机器的VC维越高 ( 复杂性越高 ) 则置信范围越大,导致真实风险与经验风险之间可能的差别越大,这就是为什么会出现过学习现象的原因。机器学习过程不但要使经验风险最小,还要使VC维尽量小以缩小置信范围,才能取得较小的实际风险,即对未来样本有较好
14、的推广性,这一理论可以由图2.1 说明。精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 4 页,共 15 页图 2.1 置信范围、经验风险与实际风险之间的关系由图 2.1 可以看出,当样本数目n固定,算法的VC维增大时,它对给定训练样本集合有更强的分类或拟合能力,导致了更小的经验风险empR,甚至使它为零。但是,VC维增大时,h n也随之增大,即放大了置信范围,从而减小了算法具有小的实际风险R的可能性。反之,若VC维缩小,那么它对给定的训练样本集合的分类或拟合能力减弱,导致了大的经验风险,此时,虽然置信区间h n缩小了,但仍不能保证获得小的实际风险
15、。可以看出n固定时empR与h n是一对矛盾体, 它们不可能同时都减小,但确实存在某个h值使实际风险上界达到最小值。2.1.5结构风险最小化原则经验风险最小化原则是目前绝大多数模式识别方法的基础,其定义为训练集上的平均错误率, 用于对整个样本集的期望风险进行估计,它建立在样本数目足够多的前提下,致使各种方法只有在样本数趋向无穷大时,其性能才有理论上的保证。而在现实世界的应用中,这一前提并不总能被满足,这时大多数此类方法都难以取得理想的结果。由 2.1.4节中的推广性的界可以看出,影响期望风险上界的因子有两个方面:首先是训练集的规模n,其次是VC维h。可见,在保证分类精度( 经验风险 ) 的同时
16、,降低学习机器的VC维,可以使学习机器在整个样本集上的期望风险得到控制,这就是结构风险最小化(Structure Risk Minimization,简称 SRM) 的由来。由VC维的讨论可以看到,经验风险和期望风险依赖于学习机器函数族的选择。把函数集,sfx分解为一个函数子集序列12.ksss 2-(5) 使各个子集能够按照置信范围的大小排序,即精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 5 页,共 15 页12.khhh 2-(6) 所谓结构风险最小化,便是构造一组嵌套的函数子集,使得其VC维由内向外依次递增,然后在其上寻找经验风险和置信范
17、围之和最小的子集,从而使得实际风险的上界最小化,如图 2.2 所示图 3.2 结构风险最小化示意图基于结构风险最小化准则的统计学习理论是一种专门研究小样本的统计理论,它为研究有限样本情况下的统计模式识别,并为更广泛的机器学习问题建立了一个较好的理论框架,同时也发展出了一种新的模式识别方法支持向量机,从而能够较好地解决小样本的学习问题。2.2 支持向量机理论SVM方法是由Vapnik 及其合作者Boser、Guyon、Cortes 及 Scholkopf在 AT&TBell 实验室共同创造与发展起来的一种新的学习方法。近年来, 许多关于 SVM 方法的研究, 包括算法本身的改进和算法的实际应用,
18、都陆续被提了出来,其中在理论上主要以Vapnik 及其研究小组做了大量开创性及奠基性的工作。目前 SVM正处于不断发展阶段,现在已经成为机器学习领域的标准工具之一。支持向量机是个三层网络结构,是一个多输入、单输出的学习机器,其体系结构如图2.3 所示精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 6 页,共 15 页图 2.3 支持向量机的体系结构其中,位于体系结构最底层的123,.,nx xxx是输入样本,,1,2,.,iK x xin是样本x与支持向量在特定空间的内积,1,2,.,iin是拉格朗日乘子,fx是决策函数的输出。图 3.3 清晰的表
19、示出支持向量机的逻辑概念框架,首先确定训练样本作为支持向量机的输入, 然后选择适当的核函数,将样本从输入空间映射到高维的特征空间,根据优化问题求解出来的支持向量最终得到相应的决策函数。它与传统的神经网络的最大区别在于:神经网络结构的确定大多是凭经验选取的,有一定的盲目性,无法确定泛化的置信空间界限,所以无法保证网络的推广能力,容易出现过学习的现象。而支持向量机网络通过结构化风险最小化归纳原理控制学习单元的VC维的上界, 限制了学习单元的能力,在一定程度上避免了过学习现象。支持向量机是建立在统计学习理论的VC维理论和结构风险最小化原理基础上的,根据有限的样本信息在模型的复杂性和学习能力之间寻求最
20、佳折衷,以期获得最好的推广能力。支持向量机被看作是对传统分类器的一个好的发展,在解决小样本、 非线性和高维的机器学习问题中表现出了许多特有的优势。概括的说, 支持向量机是以寻找最优分类面为目标、以二次规划为手段、 以非线性映射为理论基础的统计学习方法。下面将分别从这几个方面对支持向量机理论进行系统的阐述。2.2.1最优分类面精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 7 页,共 15 页支持向量机是从线性可分情况下的最优分类面发展而来的,其基本思想可用图2.4表示,对应于一维空间中的点,二维空间中的直线,三维空间中的平面,以及高维空问中的超平面
21、。图中圆形和三角形的标志分别代表两类样本,中间的实线为两类样本之间的分类超平面,两条虚线分别表示过各类中距离分类面最近的样本且平行于分类面的超平面,它们之间的距离叫做分类间隔(margin) 。图 2.4 最优分类面示意图最优分类面在把两类正确分开的同时保证分类间隔最大,根据结构风险最小化原则,前者是保证经验风险最小,而后者使分类问隔最大,导致VC维最小,实际上就是使推广性的界中的置信范围最小,从而达到使真实风险最小。后者保证VC维最小,从而达到使真实风险最小。假定给出一个样本集,1,. ,1, 1diix yin xRy满足10,1,.,tiiyxbin2-(7) 其中0tixb是分类面方程
22、,此时分类间隔为22,最终目标是求一个分类面,使得能够将两类样本正确分类的同时保证分类间隔最大,这里是使2最小。如图2.4所示,中间的实线为最优分类面,两侧虚线上的样本即为支持向量。因而,在线性可分的情况下,得到的SVM的目标函数是:212 2-(8) .st10,1,.,tiiyxbin 2-(9) 为求得公式3-(8) 的最小值,定义如下Lagrange 函数:211, ,12ntiiiLbyxb 2-(10) 精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 8 页,共 15 页其中0i为各样本对应的Lagrange 乘子。 为了求解表达式3-
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 2022年支持向量机综述 2022 支持 向量 综述
限制150内