基于自动编码器的混合深度网络学习模型-周炬.pdf
《基于自动编码器的混合深度网络学习模型-周炬.pdf》由会员分享,可在线阅读,更多相关《基于自动编码器的混合深度网络学习模型-周炬.pdf(47页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、分类号学校代码!Q 4 8 8学号2Q!9132螳Q21密级猷易舞弄坤拨夫-肇硕士学位论文基于自动编码器的混合深度网络学习模型学位申请人: 周炬学科专业: 盐差垫壁堂皇垫查 一指导教师t 张晓龙教授答辩日期: 2017年5月14日万方数据A Dissertation Submitted in Partial Fulfillment of the Requirementsfor the Professional Degree of Master in EngineeringA Hybrid Depth Network Learning ModelBased on AutoencodersMast
2、er C andidate:Major:Supervisor:Ju ZhouComputer Science and TechnologyProfXiaolong ZhangWuhan University of Science and TechnologyWuhan,Hubei 430081,PRChinaMay,2017万方数据武汉科技大学研究生学位论文创新性声明本人郑重声明:所呈交的学位论文是本人在导师指导下,独立进行研究所取得的成果。除了文中已经注明弓l用的内容或属合作研究共同完成的工作外,本论文不包含任何其他个人或集体已经发表或撰写过的作品成果。对本文的研究做出重要贡献的个人和集体,
3、均己在文中以明确方式标明。申请学位论 承担一切相关责任。日期:竺2:苎:兰研究生学位论文版权使用授权声明本论文的研究成果归武汉科技大学所有,其研究内容不得以其它单位的名义发表。本人完全了解武汉科技大学有关保留、使用学位论文的规定,同意学校保留并向有关部门(按照武汉科技大学关于研究生学位论文收录工作的规定执行)送交论文的复印件和电子版本,允许论文被查阅和借阅,同意学校将本论文的全部或部分内容编入学校认可的国家相关数据库进行检索和对外服务。论文作者签名:指导教师签名:日 期:万方数据摘要近年来,深度神经网络是人工智能和大数据分析领域研究的热点,深度神经网络通过组合低层特征形成更加抽象的高层表示属性
4、以发现数据的分布式特征表示。自动编码器作为一种基本的深度学习模型,并以此为基本框架构造深度神经网络,通过无监督的特征学习过程提取数据特征或属性,已经在机器学习预测和识别领域取得了显著的成就。为了充分发挥自动编码器模型特征学习的优势,本文基于传统自动编码器设计了一种混合深度学习模型,其中混合了降噪自动编码器和收缩自动编码器的训练过程和约束条件。降噪自动编码器是在输入数据上添加一定比例的噪声干扰,在训练学习过程中使得自动编码器能够更好的重构输入,从而取得具有对噪声干扰具有鲁棒性的特征表达;收缩自动编码器损失函数中的正则化目标为编码器Jacobian矩阵的Frobenius范数,其作用是降低极小化变
5、量对编码器的影响,辅助编码器更好的学习特征。本文提出的混合学习模型是采用模块拼装的方法建立深度网络结构,将降噪自动编码器单元和收缩自动编码器单元同时引入同一个神经网络,形成新的深度学习模型SDCAE。SDCAE模型在训练过程中充分利用两个自动编码器的优点,并采用梯度下降的方法训练对模型中的分类器和自动编码器的参数进行学习。本文在MNIST数据集上进行实验来验证模型SDCAE。通过在三种自动编码器上的分类实验对比,新的混合学习模型在MNIST数据集上的学习精度取得了一定的提升,显示出更好的学习性能。关键字:神经网络;深度学习;自动编码器:降噪自动编码器;收缩自动编码器万方数据Abstract11
6、1 recent yearsdeep neural network is a hotspot in the field of artificial intelligenceand big data analysisThe depth neural network discovers the distributed featurerepresentation of the data by combining the lowlevel features to form more abstracthighlevel representation attributesAt the same time,
7、autoencoders are constructed asthe basic framework of the depth neural network,through the unsupervised featurelearning process to extract data features or attributes,it has made significantachievements in prediction and identification of machine learning111 order to make better use of the advantage
8、s of autoencoder model on featurelearning,this thesis designs a new hybrid depth learning model based on traditionalautoencoders,which incorporates the training process and the constraint condition ofDenoising Autoencoder(DAEl and Contractive Autoencoder(CAE)The DAE makes itpossible for the autoenco
9、der tO reconstruct the input better in the training learningprocess by adding a certain proportion of noise interference to the input data,SO that itcan obtain a characteristic expression with robustness to noise interference;Theregularized target in the CAES loss function is the Frobenius norm of t
10、he Jacobianmatrix of the encoder,which reduces the influence of the minimizer on the encoder andtO assist the encoder with better learning characteristicsThe hybrid learning modelproposed in this thesis is to build the depth structure by means of module assemblingThe DAE unit and the CAE unit are in
11、troduced into the same neural network to form anew depth leaming model SDCAEWhich makes full use of the advantages of twoautoencoders in the training process and uses the gradient descent method on trainingthe parameters of the classifier and the autoencoder in the modelThis thesis validates the mod
12、el on the experiment with MNIST datasetBycomparing the classification experiments on three kinds of automatic encoders,thelearning accuracy in the MNIST has been improved on the new hybrid learning modelSDCAE,which shows better learning performanceKeywords:neural network;deep learning;autoencoder;de
13、noising autoencoder;contractive autoencoder万方数据目 录摘要IAbstract工I第l章绪论111 研究背景与意义112 国内外研究现状分析413 本文的研究内容6131 本文的主要研究内容6132本文的内容安排7第2章深度学习理论模型综述921 神经网络与深度学习922 反向传播算法1l23 深度置信网络模型1324 卷积神经网络模型1525 自动编码器模型及其优化16251自动编码器16252降噪自动编码器17253收缩自动编码器1826本章总结19第3章基于自动编码器的混合深度模型1931 堆叠自动编码器2032 混合自动编码器网络结构2233
14、 基于混合自动编码器的深度网络结构2334本章小结26第4章实验结果和分析2741 实验环境和数据集2742实验过程2943 实验结果分析2944本章小结31第5章总结与展望3251工作总结3252工作展望33致谢34万方数据参考文献35附录1攻读硕士学位期间发表的论文39附录2攻读硕士学位期间参加的科研项目40V万方数据武汉科技大学硕士学位论文11研究背景与意义第1章绪论互联网时代随着数据挖掘和人工智能的火热,计算机数据资源和类型正以惊人的速度增长,数据已经从基本的处理对象转变为基本的计算资源【11。数据科学的产生就是研究如何对大量的数据进行分析处理,通过相应的技术手段和算法对数据进行建模,
15、进行有效的分析处理,不仅是数据提取而且大数据分析和存储都有了更好的技术支撑【21。因此,结合智能计算的大数据分析成为热点,而与人工智能相关的深度学习技术成为了目前火热的研究课题。1959年是人工智能技术启蒙的阶段,当时提出的图灵测试给予了人工智能技术发展相当深远的影响,乃至今日所有的技术都是朝着人机交互的方向,目的是让机器和人类具有共同的“意识”。人类也在机器是否具有学习能力的问题上进行了长时间的探究,塞缪尔(Samuel)设计的国际象棋对弈程序就验证了机器能够自我学习并成长的事实,它可以在人为约束条件下通过不断的对弈提高胜率,并战胜了美国本土常胜不败的冠军。一时间与机器学习相关的理论算法研究
16、成为了热点问题,各领域的专家都对人工智能研究进展提出了自己的疑惑与看法,值得令人深思。学习是人类具有的一种重要的智能行为,而人工智能提出的初衷就是让机器和人类一样,具有意识并产生自我学习的能力。人工智能实际可行的关键就在于如何通过机器学习的方式抽象表示现实中各类型事物的特征,使得计算机对非线性数据能够更好的建模处理,例如图像数据、语音数据、文本语言数据等等。1986年Rumelhart提出了基于人工神经网络的反向传播算法(Back Propagation,BP)【31被广泛应用于浅层机器学习模型,人工神经网络是通过模拟人的大脑神经元“激活抑制”机制产生的网络学习模型,BP算法首先通过定义损失函
17、数计算输出结果与实际结果的偏差,采用梯度下降的方法对偏差进行激励修正并迭代更新整个网络训练参数,使得模型能够更好地学习到特征并基于此做出相关预测。那么整个神经网络学习模型的层数增多就会使得在计算过程中容易发生梯度弥散,局部最优问题突出,准确率下降,模型复杂度的增加导致整个算法学习成本的升高。并且实际应用中由于特征抽取一般靠手工来完成,因此需要工作人员掌握专业的知识和方法,需要消耗更多的时间成本,导致了错误率的增高和数据准确性的降低【41。所以更好的特征学习方法将能够节省更多效率。2006年以来,深度学习(Deep Learning),思想由Hinton等人提出【51,深度学习万方数据武汉科技大
18、学硕士学位论文的基本原理是通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示【61。深度神经网络是一种含有多隐含层的神经网络,相较于浅层神经网络,通过组合多次低层的特征变换抽象出高层的数据特征属性,并在输出层进行分类识别,展现出强大的学习能力【7】o深度神经网络通过无监督学习方法直接对原始数据进行非线性变换来进行特征提取学习,在预训练过程中采用逐层贪婪训练原理训练整个神经网络模型,更好的避免了早期的局部最优问题,同时实现对输入数据的分层特征表示,避免了人工提取特征导致的时间和精力的浪费。训练完模型的参数之后,通过使用监督学习算法来激励模型更好提取数据特征,从而作用
19、于更多无标注数据。在大数据时代中,如何能够对海量的无标签数据进行学习和分类,并且能够发掘出更多有价值的学习都对新的深度学习模型提出了更高的要求。2009至2012年间,瑞士AI实验室研究小组开发的复发性神经网络和深度前馈神经网络已经在模式识别和机器学习方面赢得了8个国际比赛冠军。Alex Graves等人的双向和多维长短期记忆(LSTM)在2009年国际文件分析和识别会议(ICDAR)上赢得了连续手写识别的三个比赛,没有任何预先了解要学习的三种不同语言。由Dan Ciresan和IDSIA的同事们基于GPU的这种方法的快速GPU实现已经赢得了几个模式识别竞赛,包括IJCNN 201l交通标志识
20、别竞赛、ISBI 2012分割电子显微镜堆叠的神经元结构挑战和其他。他们的神经网络也是第一个人工模式识别器,如交通标志识别(IJCNN 2012)或Yann LeCun的MNIST手写数字问题实现人类竞争甚至超人的表现。2012年,谷歌公司在人工智能领域的GoogleBrain项目引起业界广泛的讨论,这个由Andrew Ng和Jeff Dean主导的“深度神经网络”学习方法在语音和图像领域都取得了比较突出的成果,目前该方法已经被应用于各类搜索引擎,也在语音识别软件上取得了良好的效果。同时,更多深度学习的应用在国内兴起。2014年至2016年,百度的人工智能项目“百度大脑”正式从研发阶段进入应用
21、阶段,拉开国内互联网行业在人工智能领域的序幕。百度公司并对百度大脑技术进行了开源处理,希望广大程序开发者借助这个平台创造出更多对人工智能具有促进意义的成果。李彦宏也借助此次大会对“百度大脑”项目在各个领域尤其是语音识别和图像处理等方面的进展进行了详细的阐释。据统计,“百度大脑”语音合成平均日请求量达到25亿,语音识别成功率达到97;2016年,锤子手机新品发布会上对科大讯飞输入法进行了详细介绍,通过良好的人工智能语音识别技术,对方言的识别率达到97;201 6年3月15日,围棋人机竞赛中,谷歌AlphaGo最终以总比分4:1战胜韩国围棋选手李世石,继上次国际象棋后,人工智能又再一次像全世界证明
22、了自己。2016年12月份,AlphaG020在中国围棋对弈网站上以60连胜宣告着自己的强势登场,从万方数据武汉科技大学硕士学位论文人工智能领域给予人类更多的惊讶;国内百度,乐视等公司都大力的在自动驾驶汽车行业进行投入,并获得了各大科技公司的融资和关注,自动驾驶系统包括智能软件,算法模型和计算处理中心,其中算法模型基于深度学习理论,计算处理中心对应于自动驾驶平台。所以随着深度学习算法的不断突破,无人驾驶上路将不会是奢望。深度学-j(Deep Learning)方法虽然取得了很多很好的结果,但内部网络结构并没有非常充分并且严格的体系理论支撑,通过不断地采用更深层次的复杂的算法模型,我们获得了更多
23、的进步,而作为深度学习的基本构造模块,自动编码器(AutoEncoders)对于数据特征的抽象表示使得深度学习在分类和预测实验中获得了更好的效果。自动编码器通过对原数据进行无监督编码解码过程实现对输入数据的抽象特征表达,基于对自动编码器的理论研究,我们通过基础的模块来了解和学习深度学习理论和方法,以此优化和改善原有的深度学习算法模型。所以加深对基础算法的学习和扩展将会为人工智能科学研究带来积极的效果,未来将会具有比较广阔的发展前景。自动编码器属于深度学习基本的构造模块,对于它在实现原理上的学习研究具有很大的现实意义。近年来随着各种衍生自动编码器的诞生,以及在手写数字识别和其他相关数据集实验上的
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 自动 编码器 混合 深度 网络 学习 模型 周炬
限制150内