深度学习在自然语言处理中的应用(8页).doc
《深度学习在自然语言处理中的应用(8页).doc》由会员分享,可在线阅读,更多相关《深度学习在自然语言处理中的应用(8页).doc(8页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、-深度学习在自然语言处理中的应用-第 8 页深度学习在自然语言处理中的应用李晟群摘 要:近年来,深度学习在图像和语音处理领域已经取得显著进展,但是在同属人类认知范畴的自然语言处理任务中,研究还未取得重大突破.本文通过分析目前国内外部分专家学者对面向自然语言处理的深度学习研究的总体概况,梳理、总结了相关文献,介绍深度学习的基本概念;分析讨论了当前面向自然语言处理的深度学习研究进展及应用策略和深度学习的平台和工具;对深度学习在自然语言处理处理领域的发展趋势和有待深入研究的难点进行了展望.关键词:自然语言处理,深度学习,神经网络深度学习在图像的语音领域取得了突出成果,但是在自然语言处理上还未取得重大
2、突破,与语音和图像不同,语言是一种经过人类大脑产生并加工处理的符号系统,似乎模仿人脑结构的人工神经网络应该在自然语言处理领域拥有更多优势,但实际情况并非如此.同时,近几十年来,基于统计的模型成为自然语言处理非主流方法之后,属于统计方法典型代表的人工神经网络在自然语言处理领域依然没有得到足够重视.当然,这一切在2006年Hinton等提出深度学习1以后,情况发生了变化,当前结合深度学习模型开展自然语言处理相关应用已经取得了一定成果,并成为研究热点之一.本文主要对深度学习在自然语言处理领域的研究概况进行总结,并且指出当前存在的问题和对未来的发展方向进行一个探讨.深度学习(Deep learning
3、)通过建立深层神经网络,模拟人脑的机制进行解释并分析学习图像、语音及文本等数据,是目前机器学习研究中的一个热点领域.传统机器学习工作的有效性,很大程度上依赖于人工设计的数据表示和输入特征的有效性;机器学习方法在这个过程中的作用仅仅是优化学习权重以便最终输出最优的学习结果.与传统机器学习方法不同的是,深度学习试图自动完成数据表示和特征提取工作;并且深度学习更强调,通过学习过程提取出不同水平、不同维度的有效表示,以便提高不同抽象层次上对数据的解释能力.从认知科学角度来看,这个思路与人类学习机理非常吻合.神经网络和深度学习模型首先是在计算机视觉等领域取得了进展,而在自然语言处理领域,其获得大量应用的
4、时间相对较晚.从二十一世纪初开始,一些将神经网络和深度学习应用在自然语言处理领域的文章被陆续发表.Bengio et al.(2003)2提出了利用递归神经网络建立语言模型,该模型利用递归神经网络为每个词学习一个分布表示(distributed representation)的同时,也为词序列进行了建模.该模型在实验中取得了比同时期最优的n元语法模型更好的结果,且可以利用更多的上下文信息.Bordes et al.(2011)3提出了一种利用神经网络和知识库(knowledge base)学习介个化信息嵌入(Structured Embeddings)的方法,该方法在WordNet和Freeb
5、ase上的实验结果表明其可以对结构化信息进行嵌入表示.Mikolov et al.(2013)4提出了连续词袋模型(continuous bag ofwords,CBOW),该模型使用句子中某个词位置周围的词来预测该词;该工作还同时提出了skipgram模型,该模型可以利用句子中某个位置的词预测其周围的词.基于这两个模型,Mikolov et al.4开源了工具word2vec4,用来训练词向量,该工具已经得到了广泛应用.Kim(2014)5将卷积神经网络引入自然语言处理的句子匪类任务.该工作利用一个具有两个通道(channel)的卷积神经网络对句子进行特征提取,最后对提取的特征进行匪类.实验
6、结果表明卷积神经网络在对自然语言进行特征提取方面具有显著的效果.基于长短期记忆神经网络,Sutskever et al.(2014)6提出了序列到序列(sequence to sequence)模型,在该文章中,序列到序列模型被应用于机器翻译任务.该模型使用了两个长短期记忆神经网络分别作为编码器(encoder)和解码器(decoder).在编码器部分,该网络在每个时候读取一个源语言词汇,直到读取至一个结束符,即得到了该序列的一个表示.将源语言序列编码完成后,使用源语言序列的编码表示初始化编码器.使用递归神经网络的预测模型,即可解码出相应的目标语言序列.该模型十分新颖,并且在机器翻译任务中取得
7、了与传统方法可比较的BLEU值.Tai et al.(2015)7提出了树状长短期记忆神经网络.由于传统的递归神经网络通常用于处理线性序列,而对于自然语言这种 有着内在结构的数据类型,这种线性的模型可能一些信息丢失.因此,该模型将长短期记忆神经网络用于分析树中,并在情感分类(sentiment analysis)取得了良好的效果.相比于图像和语音领域所取得的成果, 深度学习在自然语言处理上尽管还未取得重大突破, 但也在以下相关诸多领域, 如词性标注、句法分析、词义学习、情感分析有着初步应用, 并取得较好效果.面向自然语言处理的深度学习平台或具较多, 根据开发语言的不同,可以分 为基于Pytho
8、n、C+、C 或 Java 等不同程序设计语言实现的算法库或框架; 根据实现的神经网络模型的不同, 可以分为面向 RBM/DBN (Deep belief net-work) 等组件、卷积神经网络 (CNN)、循环神经网络、递归神经网络实现的框架平台; 根据功能目标不同, 又可以分为提供深度学习基本功能实现的函数库/工具包、在函数库基础上面向领域任务构建的不同应用框架等.“自然语言”在深度学习中用于初始输入的“数据源”是字或词, 和图像、语音分别采用像素点及音素作为初始“数据源”相比较, 前者已经包含了人类的语义解释, 是经过人类主观思考处理后形成的, 而后者是原始的, 还没有经过人类加工处理
9、. 这一点是自然语言处理和其他两种应用最大的不同. 由此, 我们联想到, 这是否也是深度学习在图像、语音方面能够取得巨大成功, 而在自然语言方面还没有成功的关键原因呢?因为包含原始信号的情况下, 不容易丢失未知信息, 从而能够通过深度学习的不同分层特征表示, 更为全面地表征原始输入, 进一步为分类、聚类等具体应用提供充分的特征支撑.目前来看, 面向自然语言处理的深度学习中的数据表征主要还是 Word embedding 概念, 只是可能在不同语言中, 具体 Word 的表示单位有所不同,如英文中可以是单词或词缀, 中文中则换成了词组或字, 本质上还是通过某种映射规则, 将 Word 转换为向量
10、表示.在如何将深度学习与现有自然语言处理具体任务结合方面, 目前还没有比较明显有突破的方法或规律可以遵循. 现有工作中, 比较直接简单的做法是,以词或短语作为原始输入, 构建向量类型的表达方式, 经过深度学习分层学习后得到的特征可以添加进现有基于特征的半监督学习系统中进行处理8.此外, 还有将深度学习模型与当前经典问题结合后产生的应用模型, 如结合树形或链式结构的递归神经网络或循环神经网络模型等9-12. 因此, 考虑如何将深度学习与自然语言处理任务结合的具体落地应用也是值得研究的重点.面向自然语言处理的深度学习研究工作, 目前尚处于起步阶段, 尽管已有的深度学习算法模型如循环神经网络、递归神
11、经网络和卷积神经网络等已经有较为显著的应用, 但还没有重大突破. 围绕适合自然语言处理领域的深度学习模型构建等研究应该有着非常广阔的空间.在当前已有的深度学习模型研究中, 难点是在模型构建过程中参数的优化调整方面. 主要如深度网络层数、正则化问题及网络学习速率等. 可能的解决方案比如有: 采用多核机提升网络训练速度; 针对不同应用场合, 选择合适的优化算法等.深度学习模型的训练过程中, 最为突出的问题是训练速度. 普遍来看, 深度学习模型的训练速度远比线性模型来得慢. 此外, 模型性能的优劣, 一般与训练数据集的规模有关. 数据集越大, 训练结果越好13. 这一点, 非常符合目前主流的大数据应
12、用趋势. 但是, 这也可能给学习模型的优化带来发展阻碍. 在极力追求产生大数据训练集的情况下, 是否会削弱对更优学习模型的研究热情呢?围绕数据表示及特征提取问题, 已有大量文献分析了自然语言处理中的数据源特征和无监督自动学习方法. 深度学习一直强调学习特征采用自动的方法, 然而, 如果能够在训练过程中融合已有面向特定应用领域的显然的知识 (如人工选取的明显特征规律), 对于深度模型而言, 依然具有吸引力. 这就好比人类学习, 完全抛弃祖先的知识而白手起家开展工作, 是不可想象的. 但是, 要做到这点非常困难. 首先, 针对问题领域, 需要选择合适的模型架构,比如针对自然语言的语义框架选择合适的
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 深度 学习 自然语言 处理 中的 应用
限制150内