基于智能优化的支持向量机分类方法研究-张进.pdf
《基于智能优化的支持向量机分类方法研究-张进.pdf》由会员分享,可在线阅读,更多相关《基于智能优化的支持向量机分类方法研究-张进.pdf(50页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、IIIIIll LIIIIIIIIIIlllllllllllll Llll Ll1llllllllY321 9353分类号学号垫!13ZQ3QQg密级5蔫菇峰拨走哮硕二学位论文基于智能优化的支持向量机分类方法研究学位申请人:学科专业:指导教师:答辩日期:张进计算机科学与技术一工眭2017芏!旦!堕万方数据A Dissertation Submitted in Partial Fulfillment of the Requirementsfor the Degree of Master in Engineering(Research on support vector machineclassi
2、fication method based on IntelligentOptimization)Master Candidate:Major:Supervisor:ZhangjinComputer science and technologyDingshengWuhan University of Science and TechnologyWuhan,Hubei 430081,PRChinaJune,2017万方数据武汉科技大学研究生学位论文创新性声明本人郑重声明:所呈交的学位论文是本人在导师指导下,独立进行研究所取得的成果。除了文中已经注明引用的内容或属合作研究共同完成的工作外,本论文不
3、包含任何其他个人或集体己经发表或撰写过的作品成果。对本文的研究做出重要贡献的个人和集体,均已在文中以睨确方式标明。申请学位论文与资料若有不实之处,本人承担一切相关责任。论文作者签名:盏遄 日期:2 12:6:!研究生学位论文版权使用授权声明本论文的研究成果归武汉科技大学所有,其研究内容不得以其它单位的名义发表。本人完全了解武汉科技大学有关保留、使用学位论文的规定,同意学校保留并向有关部门(按照武汉科技大学关于研究生学位论文收录工作的规定执行)送交论文的复印件和电子版本,允许论文被查阅和借阅,同意学校将本论文的全部或部分内容编入学校认可的国家相关数据库进行检索和对外服务。论文作者签名: 主垒垃指
4、导教师签名: 翻鎏LEI 期:垫!j;丘:王万方数据摘要支持向量机(SVM)对于解决分类的问题具有良好的性能,其中特征选择和参数优化对分类精度有较大影响。在特征中存在一些冗余特征,增加了算法的时间和空间复杂度,必须进行特征选择对数据进行降维。此外参数也会影响到最终的分类精度。这两个因素相互影响,如何对特征选择和参数进行同步优化以提高分类的效率己成为研究的趋势。本文提出了一种改进的基于粒子群优化(VSO)f拘SVM特征选择和参数联合优化算法(GPSOSVM),使算法在提高分类精度的同时选取最佳的特征子集。传统粒子群算法在进行优化时易出现陷入局部最优和早熟的问题,为了克服这一缺点,该算法在PSO中
5、引入遗传算法(GA)中的交叉变异算子,使粒子在每次迭代更新后进行交叉变异操作来避免这一问题。该算法通过粒子之间的不相关性指数决定粒子之间的交叉配对,由粒子适应度值的大小决定变异概率的大小,由此产生新的粒子进入到群体中。这样使得粒子跳出当前搜索到的局部最优位置,提高群体的多样性,在全局范围内寻找更优值。在不同数据集上进行实验,与其它优化算法相比,GPSOSVM算法的分类精度更高,特征选择能力更好。鉴于GPSOSVM算法虽然提高了精度,但迭代周期较长,本文使用了思维进化算法进行特征选择和参数的同步优化。思维进化算法(MEA)是一种新型优化算法,利用该算法进行特征选择和SVM参数同步优化能取得较好的
6、分类效果并且迭代周期相对较短,但也存在着易陷入局部最优的问题。本文提出了一种改进的思维进化算法进行分类器优化(RMEASVM),在传统思维进化算法的基础上引入了“学习”和“反思”机制,利用子群体间信息共享进行学习,比较适应度值大小来反思。以这种方式保证种群的多样性,进一步地提高分类精度。实验证明了算法的有效性。本文利用两种优化算法解决SVM的特征选择和参数同步优化的问题,分类精度更高,特征选择能力更强,取得了不错的效果。关键词:支持向量机:特征选择;参数优化;粒子群优化算法;思维进化算法万方数据AbstractSupport vector machine(SVM)has a good perf
7、ormance in solving classificationproblem,among which feature selection and parameter optimization have a greatinfluence on classification accuracyThere are some redundant features in the feature,which increase the time and space complexity of the algorithm,SO the feature selectionmust be used to red
8、uce the dimension of the dataIn addition,the parameters will alsoaffect the final classification accuracyThese two factors influence each other,and howto optimize the feature selection and parameters synchronization to improve theefficiency of classification has become a research trendAiming at this
9、 problem,an improved algorithm based on particle swarmoptimization(PSO)for feature selection and SVM parameters optimization(GPSOSVM)is proposed to improve the classification accuracy and select the best feature subsetInorder to solve the problem that the traditional particle swarm algorithm is easy
10、 to fall intolocal optimum and premature maturation,the algorithm introduces the crossover andmutation operator from genetic algorithm(GA)that allows the particle to carry out crossand mutation operations after iteration and update to avoid the premature problem inPSOThe crossover particle is select
11、ed by the irrelevance index between the particlesand the mutation probability is determined by the fitness value of the individual,by thisway to make the particles jump out of the previous search to the optimal position toimproved the diversity of the population and found a better valueCompared with
12、 thestandard particle swarm algorithm and genetic algorithm for feature selection andparameter optimization,experimental result show that GPSOSVM can find theappropriate feature subset and parameters of the SVM to obtain beRer classificationperformanceAlthough the GPSOSVM algorithm improves the accu
13、racy,it has a longer iterationperiodThis paper uses mind evolutionary algorithm(MEA)to optimize the featureselection and parameter synchronizationMind evolutionary algorithm is used for featureselection and SVM parameters optimization Can achieve good classification results,butthere are also some pr
14、oblems such as easy to fall into local optimumAiming at thisproblem,an improved mind evolutionary algorithm for feature selection and SVMII万方数据parameter optimization is proposed into which the”learning”and”reflection”mechanismare introducedThe algorithm learning through the information sharing among
15、 subgroupsand reflects through the comparison of the fitness valueIn this way to ensure thediversity of population and ftuther improve the classification accuracyExperimentalresults show the effectiveness ofthe algorithmIn this paper,we use two optimization algorithms to solve SVM feature selectiona
16、nd parameter optimization problem,the classification accuracy is higher and the featureselection ability is stronger,and finally achieved good resultsKeywords:support vector machine;feature selection;parameter optimization;particleswarm optimization;mind evolutionary algorithm;I万方数据目 录摘 要IABSTRACT,I
17、I第1章绪论111研究背景和意义112研究现状11-3本文研究的工作314论文组织3第2章相关理论知识42,1支持向量机(SVM)4211函数间隔与几何间隔4212最优分类面一521-3核函数522特征选择6221特征选择定义一6222特征选择作用6223特征选择过程7224特征选择方法723本章小结8第3章改进的基于PSO的特征选择及SVM参数联合优化算法931粒子群算法931。l算法流程9312算法参数lO313算法的特点1l32 GPSOSVM算法11321粒子编译码11322适应度函数1232-3惯性权重12324交叉操作13325变异操作15326算法流程1633实验研究18331实
18、验环境和实验数据18万方数据332实验评价方法18333实验参数设置19334实验结果与分析1934本章小结。24第4章学习反思的思维进化算法进行特征选择及SVM参数同步优化2541思维进化算法25411算法简介25412算法流程26413算法的特点2742 RMEASVM算法27421“学习”机制27422“反思”机制28423算法流程2843实验研究一30431实验环境和实验数据30432实验参数设置3 1433实验结果与分析3 l44本章小结一36第5章结论与展望37致谢38参考文献39附录1攻读硕士学位期间发表的论文42V万方数据武汉科技大学硕士学位论文11研究背景和意义第1章绪论分类
19、问题是数据挖掘【I】和机器学习中的一个主要研究领域,支持向量机(Support Vector Machme)Br,够较好地解决分类的问题。但随着对分类的有关问题不断地研究,数据正变得越来越庞大,特征数目变得越来越高。虽然大量的特征提供了足量的信息,但庞大的数据对象中必然存在着许多冗余特征,一方面这些冗余特征使得分类的正确率降低,另一方面会增加算法的运行时间和空间,降低算法的效率【2】。面对这个问题,在对数据集进行分类时,往往需要对数据进行处理来获取其中的有效信息,其中特征选择是一种有效的手段。通过特征选择对数据进行降纠】来达到减少特征的数目。另一方面,参数的选取也决定了SVM分类器的分类能力,
20、好的参数设置能有效提高分类器的性能。参数优化问题也是分类问题中的研究重点,到目前为止,对于如何求取SVM最佳参数并没有特别有效的方法。其中,交叉验证【5击】和网格搜索7-81是一种常用的算法,但是该算法比较费时而且效果不理想。SVM作为一种分类算法,在优化过程中就面临两个问题:一是如何选择最佳的特征子集;二是如何设置最佳的SVM参数。特征子集的选取在很大程度上影响到SVM的分类精度和运行时间,SVM核函数的参数设置决定了分类器的分类性能。特征选择与参数优化作为两个不同的研究方向往往是分开来进行的,但是特征选择和参数优化事实上是相互影响的,选择不同的特征子集其所对应的最佳参数往往是不同的。所以同
21、步进行特征选择和参数的优化来改善分类器的性能。用以提高分类精度已成为分类问题中的研究热点。12研究现状在特征选择方法研究中,Li9提出了种无监督的特征选择方法,将聚类分析和稀疏结构引入到特征选择过程中,通过稀疏方式优化特征结构,通过聚类分析得出聚类标记来指导特征选择;Tabakhi101提出了一种基于蚁群算法的无监督特征选择方法,通过计算特征之间的相似性来最大程度上减小冗余。姚登举111提出万方数据武汉科技大学硕士学位论文了一种基于随机森林的封装式特征选择算法,利用随机森林算法的变量重要性度量进行特征重要性排序,利用序列后向选择方法(Sequential backward selection,
22、SBS)和广义序列后向选择方法(Generalized sequential backward selection,GSBS)选取特征子集:王利琴【12】提出了一种精英遗传算法进行特征选择,先进行全局大范围搜索然后进行局部重点搜索,设计新的选择算子以淘汰劣质粒子,加入新的个体,保证算法在全局范围内进行搜索。不同的特征选择算法在不同的分类器上会表现出不同的性能,所以特征选择算法还处于不断发展中。SVM参数优化研究中,主要的优化算法主要包括穷举法,梯度下降法,这些方法虽然简单但耗时较长。己有学者提出运用智能算法对其进行优化操作,如高雷阜【l那提出的应用人工鱼群算法来选择参数,zhangtl4】等提
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 智能 优化 支持 向量 分类 方法 研究
限制150内