基于自组合核的增量分类方法-冯林.pdf
《基于自组合核的增量分类方法-冯林.pdf》由会员分享,可在线阅读,更多相关《基于自组合核的增量分类方法-冯林.pdf(11页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第38卷第8期 系统工程与电子技术 V0138 No82016年8月 Systems Engineering and Electronics August 2016文章编号:1001506X(2016)08195811 网址:wwwsyselecom基于自组合核的增量分类方法冯 林12,张 晶12,吴振宇2(1大连理工大学电子信息与电气工程学部计算机科学与技术学院,辽宁大连116024;2大连理工大学创新创业学院,辽宁大连116024)摘要:在线极端学习机(online sequential extreme learning machine,OSELM)模型在解决动态数据实时分类问题时,无需批
2、量计算,仅保留前一时刻训练模型,根据当前时刻样本调整原有模型即可。然而,该增量方法在离线训练阶段随机指定隐层神经元使模型鲁棒性差,且求解过程难以拓展于核方法,降低了分类效果。针对上述问题,提出一种基于自组合核的在线极端学习机(self-compounding kernel online sequential extreme learning machine,SCKOSELM)模型。首先,提出一种新的自组合核(self-compounding kernel,SCK)方法,构建样本不同核空间的非线性特征组合,该方法可被应用于其他监督核方法中。其次,以稀疏贝叶斯为理论基础将训练数据的先验分布作为模型
3、权值引入,并利用超参调整权值后验分布,从而达到对当前时间点参数稀疏的目的。最后,将稀疏得到的参数并入下一时刻运算。对动态数据的实时分类实验表明,该方法是一种有效的增量学习算法。相比于OSELM,该方法在解决动态数据实时分类问题时获得更稳定、准确的分类效果。关键词:动态数据;在线极端学习机;自组合核;稀疏贝叶斯中图分类号:TP 319 文献标志码:A DOI:103969jissn1001506X20160836Incremental classification based on self-compounding kernelFENG Linl”,ZHANG Jin91,WU Zhenyu2(
4、1School of Computer Science and Technology,Faculty of Electronic Information andElectrical Engineering,Dalian University of Technology,Dalian 1 1 6024,China;2School ofInnovation Experiment,Dalian University of Technology,Dalian 1 1 6024,China)Abstract:Online sequential kernel extreme learning machin
5、e(OSELM)is an increment classification algorithm,and it only keeps training model at last time,then adj usts the original model from the current samplesHowever,it does not batch calculation when solving the problem of realtime dynamic data classificationThismethod by minimizing the empirical risk le
6、ads to the over-fitting,and randomly assigns hidden layer neurons inoffline training,which makes the model have poor robustMoreover,the solving process is difficult to be extended to the kernel method,which reduces the classification accuracyPointing to abovementioned problems,a new online classific
7、ation method,self-compounding kernels OSELM(SCKOSELM),is proposed based on thekernel methodFirstly,inputted samples are mapped to multikernel spaces to obtain different features,and thenonlinear combination of features are calculatedProposed self-compounding kernels method is used to otherssupervise
8、d kernel methodsSecondly,the prior distribution of training samples as model weights are introducedto maintain the model generalization,and by using the super weight to make the posterior distribution of weightsto zero,thus sparse parameter is achievedFinally,the parameter of sparse are incorporated
9、 into the next moment common operationsNumerical experiments indicate that the proposed method is effectiveIn comparisonwith OSELM,the proposed method has better performance in the sense of stability and classification accuracy,and is suitable for realtime dynamic data classificationKeywords:dynamic
10、 data;online sequential extreme learning machine;self-compounding kernel;sparse Bayesian收稿日期:201510一26;修回日期:20160316;网络优先出版日期:20160706。网络优先出版地址:http:wwwcnkinetkcmsdetail112422TN201607061030004html基金项目:国家自然科学基金(61173163,61370200)资助课题万方数据第8期 冯林等:基于白组合核的增量分类方法 19590 引 言在互联网时代,各个领域每一时刻均产生大量数据,如网络流量数据、金融
11、交易数据、医学诊断数据、移动终端数据等。如何实时、准确地获得数据并更新已有知识,成为研究热点。模式分类是数据挖掘领域的重要分支,广泛应用于图像识别、故障排查、医疗检测等领域。上述应用中数据由时序动态更新,后续到来的数据对已有知识更新、补充。传统的模式分类模型需要对所有时刻累积的数据进行学习,该方法将耗费大量的时间与空间资源,并难以拓展于动态数据实时分类问题。因此,如何实时高效处理这些按时间序列动态到来的数据,同时保持训练速度与数据更新速度的平衡,成为亟待解决的问题。早在1962年,文献1就提出增量学习方法,该方法在保持对已有模型可追溯的基础上,直接对新数据进行学习,进而得到新的训练模型。研究者
12、们将增量算法的研究重点放在算法的稳定性与可追溯性两个方面,本文的研究主要与第二点相关。从算法稳定性方面,每批次到来的动态数据难以预测,其性态是不稳定的,称为非稳定环境(non-stationary environment,NSE)1-2。因此,可能出现数据分布改变甚至产生“概念漂移现象”。文献34对上述NSE现象进行了定义并对其漂移程度进行了评价。早期的研究均从如何发现该现象的产生以及如何保证算法的稳定性出发,这些方法普遍存在较高的时空复杂度。文献E53较早提出时间窗识别概念漂移的方法,该方法将导致对之前时刻数据的遗忘,使学习效果降低。文献6通过自适应调节时间窗宽度保证对产生漂移的类别进行学习
13、。文献79分别利用控制图、JIT分类器与信息论等方法解决该问题。集成分类算法在文献10中被用于解决动态数据增量分类问题。文献11提出Learning+算法,该方法为一种增量学习算法,可与各种监督学习分类器相组合,其主要思想是:对一批新到来的样本学习得到多个弱分类器后将其加权组合得到分类结果。该方法天生具有解决概念漂移的能力,通过弱分类器对已有数据类别空间记忆,后续一些学者对该方法进行了改进口2。”。以上方法针对动态数据增量学习过程中产生的非渐进概念漂移检测有较好效果,当动态数据中出现渐进概念漂移时n“,上述方法为保证较小的空间复杂度,丢失了原有数据信息,增量学习能力被减弱。在模型的可追溯性方面
14、,文献1516提出样本选择方法,通过保留之前的部分样本,当新数据到来时,结合保留的样本重新训练得到新的分类器。该方法由于保留了前序时间点的有用信息,有效提高了分类效果。单隐层前馈神经网络(single hidden layer neural network,SLNF)可通过学习连续函数达到任意精度的拟合效果,从而被应用于解决模式分类问题与增量学习方法。文献17提出自适应增量神经网络(self-organizing incremental neural network,SOINN),利用原样本与新样本近邻关系移除多余的样本,并利用两层神经网络训练得到分类器实现增量分类。该方法采用类内插入机制处理
15、新来的样本,由于实现过程中用到过多参数,使得算法难以控制且非常复杂。为增强算法的稳定性,文献18对上述方法进行改进。SLNF虽然有诸多优点,但在求解过程中采用迭代方式,使得求解速度缓慢,且解容易陷入局部极小值。文献E19提出极端学习机模型(extreme learning machine,ELM),将求解过程转化为简单的线性系统,可以任意指定输入层参数,且无需迭代调整。该方法不仅简化了求解过程,且不会陷入局部极小解,自提出以来被广泛应用于模式分类2”2与时间序列预测22。2朝等领域。为了推广算法的应用,文献24一zs对ELM模型进行改进。在对动态数据适应性方面,文献26在ELM基础上推导了增量
16、学习模型。当新数据按照时间先后分批到来时,该方法无需对所有累积数据重新训练,仅训练新到来数据,调整分类模型即可。该方法是一种速度很快的增量学习算法,其改进算法在图像分类、预测等应用领域取得了很好效果27。2“。在离线训练阶段采用ELM方法,通过最小化经验风险调整隐层结点。为避免过拟合,文献29引入结构风险,利用正则化参数平衡经验风险。文献303受LS-SVM算法启发,在ELM上进行推导得到LS-IELM算法,但该方法在不同应用背景下,仍存在隐层参数难以确定的问题,且随机指定的输入隐层参数无法保证算法的稳定性。文献30提出KB-IELM算法,在原有LS-IELM中引入核方法,避免了上述隐层参数选
17、择等问题。文献3132提出0S-ELMK方法和KOSELM方法。然而,上述方法中均存在两个问题:复杂的推导与大量的矩阵运算,使得算法效率偏低;算法需根据数据分布对核函数选择预判,当无法预先得知数据分布时,难以对核函数进行合适的选择从而降低分类效果。针对上述问题,本文提出一种自组合核在线极端学习机模型(self-compounding kernels online sequential kernelextreme learning machine,SCKOSELM)。首先,在每批动态数据到来的训练阶段将样本映射到不同核空间,并将其特征进行非线性融合得到核矩阵。之后,利用稀疏贝叶斯方法对其后验概率
18、进行估计从而代替拟合数据的方法训练得到隐层输出权值,并对当前时刻参数进行稀疏以便于后续的增量学习。本文在3类数据集上验证了SCK-OSELM算法的有效性,存在以下优点:(1)该方法避免了人为选择隐层参数,增强了算法的万方数据1960 系统工程与电子技术 第38卷鲁棒性。通过对当前时间点计算将参数进行稀疏,不仅保留了已有的判别信息,且降低了下一时刻的计算复杂度,实现了增量学习。(2)提出自组合核方法,实现了不同高维空间特征融合,同时避免了需根据样本分布选择核函数的问题。该方法可被拓展应用于其他监督的组合核方法中。1 OSELM算法及本文算法思路11 OSELM算法回顾ELM模型为SLNF的改进算
19、法,避免了其求解速度慢,容易陷入局部极小值的问题,可描述如下:N个不同样本(z;,t,)x一工1,工TRD。N式中,t。一fn,t。7Rm,当应用于解决多分类问题时,网络输出m(m2)。网络中隐层结点数为N个,激活函数g()为Sigmod神经元,或径向基函数神经元等。雨晟g(,+bj)一Il式中,j一1,N;a。一nn,口。,a。7为连接第i个隐层结点与输入结点的输入权值向量;卢。一肛。,屈。,&7为连接第i个隐层结点和输出节点的输出权值向量;b,为第i个隐层结点的偏置值。令隐层节点为N,写成矩阵形式为耶一T。文献19指出,输人权值口i和隐层的偏置值b可随机生成,网络的解可通过线性系统耶一T的
20、最小二乘解得到。邱一11解的形式可写为声一H+T,其中H+为H的广义逆矩阵。同时有H+一(H7H)_1日7,即可得到声一(日1H)-1H1T。由VC维理论可知,分类模型在训练时需要兼顾经验风险与结构风险。根据优化观点,ELM模型需同时最小化训练误差考,与输出权值卢。一 NrainL。一百1帅忪+c2j l=1Stg(x,)卢一fT一占,i一1,N (1)式中,考。一。,考。1为训练误差向量。根据KKT理论,由拉格朗日乘子法有N N Nmin LELM一t研,g(x。)g(一)一rlt=l J=1 i;lSt0rfC,i一1,N (2)式中,r为拉格朗日乘子。此处g(xi)g(墨),可转化为K(
21、x,弓)一g(x,)g(葺)。式(2)可写为N N Nmin L。一t即,K(x;,)一ti一1-=1 i=1St0tC,i一1,N (3)式中,K(x,z,)为ELM的核函数,可为径向基函数等任意核函数。上述模型针对静态数据,采用批量分类方法。文献Ez6)提出了增量分类模型OSELM,其为ELM模型的在线求解方法,能快速处理在线分类问题。对N(N1)个新样本学习得到模型后与原有模型进行矩阵计算即可得到新的输出权值瓜+。w。当N个新样本到达时,隐层输出矩阵为广HN 1HNT州一I H。I (4式中,H一gk, gT+。因此,有输出向量瓦。=“+, tw+。w1。由式(4)可以得到p+N一(Hk
22、NHN+N)_1HT+T+N (5)从而,可得到卢M。一(王fTH。+HTH。)1(H哥r。+H盈T。) (6)令Go一(日tH。),由OSELM的增量式学习算法可以得到簖1一簖1+HjN日。N (7)结合式(6)和式(7),可得到输出权值的增量表达式为卢N十NGl(HNTN+HTNTN)一卢w+G-Hjw(T1Aw日。N卢N) (8)由上述求解过程可知,新数据动态到来时,式(7)和式(8)仅需在原有模型基础上进行调整,即可实现增量学习。12 osELM增量学习问题与本文思路OSELM仅在当前时间点对已得到的分类器进行调整,无需对全部累积数据重新训练即可获得适应于新数据的分类器。该方法虽然在保
23、证计算精度的前提下,提高了计算速度,但由式(5)可知矩阵需通过随机指定参数的方法获得,这种操作将产生较差的鲁棒性。同时,由式(3)可知核ELM难以直接拓展于式(7)和式(8)成为基于核方法的增量极端学习机,或需通过复杂矩阵计算将OSELM拓展成核方法。如文献E3032指出,该方法不仅计算复杂,且存在难以针对输入数据分布特点选择合适核函数的问题。稀疏贝叶斯分类方法利用先验概率使部分参数值趋于0,这些参数对判别模型的影响较小,从而达到参数稀疏的目的。上述特性恰好可被用于增量模型中。本文受其启发,提出一种基于核的增量学习算法。通过保留当前时刻约减后参数,降低下一时刻计算复杂度。同时,为避免原始核映射
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 组合 增量 分类 方法 冯林
限制150内