深度知识学习及其应用-机器知识学习学术报告.ppt
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《深度知识学习及其应用-机器知识学习学术报告.ppt》由会员分享,可在线阅读,更多相关《深度知识学习及其应用-机器知识学习学术报告.ppt(83页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、深度学习及其应用,目录,1. 机器学习概述,2.深度学习,概述,什么是机器学习 计算机程序如何随着经验积累自动提高性能系统自我改进的过程 成功应用 学习识别人类讲话 学习驾驶车辆 学习分类新的天文结构 学习对弈西洋双陆棋 涉及的相关学科 人工智能 计算复杂性理论 控制论 信息论 统计学,4,学习问题的标准描述,定义 如果一个计算机针对某类任务T的用P衡量的性能根据经验E来自我完善,那么我们称这个计算机程序在从经验E中学习,针对某类任务T,它的性能用P来衡量。 西洋跳棋学习问题的解释 T,参与比赛 E,和自己下棋 P,比赛成绩(或赢棋能力,击败对手的百分比),具体学习方法,基于符号和逻辑表示的概
2、念学习 决策树 人工神经网络 统计和估计理论的基础概念 贝叶斯理论 计算学习 基于实例的学习 遗传算法 规则学习 基于解释的学习 近似知识与现有数据的结合 增强学习 支持向量机,深度学习,1. 概述、背景,2.人脑视觉机理、关于特征,3. Deep Learning 基本思想、浅层学习,4.深度学习与神经网络(Neural Network),5. DP的常用模型与方法,6.Dp的总结,7. Dp的未来,8.DP的问题,概述,Artificial Intelligence(人工智能)是人类最美好的梦想之一。 图灵(计算机和人工智能的鼻祖)在 1950 年的论文里,提出图灵试验的设想,即,隔墙对话
3、,你将不知道与你谈话的,是人还是电脑。这无疑给计算机,尤其是人工智能,预设了一个很高的期望值。 半个世纪过去了,人工智能的进展,远远没有达到图灵试验的标准。这不仅让多年翘首以待的人们,心灰意冷,认为人工智能是忽悠,相关领域是“伪科学”。 自 2006 年以来,机器学习领域,取得了突破性的进展。图灵试验,至少不是那么可望而不可及了。至于技术手段,不仅仅依赖于云计算对大数据的并行处理能力,而且依赖于算法。这个算法就是,Deep Learning。借助于 Deep Learning 算法,人类终于找到了如何处理“抽象概念”这个亘古难题的方法。,概述,2006年的3篇关于深度学习的突破性论文: Hin
4、ton, G. E., Osindero, S. and Teh, Y.,A fast learning algorithm for deep belief nets.Neural Computation 18:1527-1554, 2006 Yoshua Bengio, Pascal Lamblin, Dan Popovici and Hugo Larochelle,Greedy LayerWise Training of Deep Networks, in J. Platt et al. (Eds), Advances in Neural Information Processing Sy
5、stems 19 (NIPS 2006), pp. 153-160, MIT Press, 2007 MarcAurelio Ranzato, Christopher Poultney, Sumit Chopra and Yann LeCun Efficient Learning of Sparse Representations with an Energy-Based Model, in J. Platt et al. (Eds), Advances in Neural Information Processing Systems (NIPS 2006), MIT Press, 2007,
6、概述,2012年6月,纽约时报披露了Google Brain项目,吸引了公众的广泛关注。这个项目是由著名的斯坦福大学的机器学习教授Andrew Ng和在大规模计算机系统方面的世界顶尖专家JeffDean共同主导,用16000个CPU Core的并行计算平台训练一种称为“深度神经网络”(DNN,Deep Neural Networks)的机器学习模型(内部共有10亿个节点。这一网络自然是不能跟人类的神经网络相提并论的。要知道,人脑中可是有150多亿个神经元,互相连接的节点也就是突触数更是如银河沙数。曾经有人估算过,如果将一个人的大脑中所有神经细胞的轴突和树突依次连接起来,并拉成一根直线,可从地球
7、连到月亮,再从月亮返回地球),在语音识别和图像识别等领域获得了巨大的成功。,概述,2012年11月,微软在中国天津的一次活动上公开演示了一个全自动的同声传译系统,讲演者用英文演讲,后台的计算机一气呵成自动完成语音识别、英中机器翻译和中文语音合成,效果非常流畅。据报道,后面支撑的关键技术也是深度学习。 2013年1月,在百度年会上,创始人兼CEO李彦宏高调宣布要成立百度研究院,其中第一个成立的就是“深度学习研究所” 。 2013年3月谷歌收购了加拿大神经网络方面的创业公司DNNresearch,DNNresearch公司是由多伦多大学教授Geoffrey Hinton与他的两个研究生Alex K
8、rizhevsky和Ilya Sutskever于去年成立,由于谷歌在本次收购中没有获得任何实际的产品或服务,所以本次收购实质上属于人才性收购,收购的主体实为了这三人团队。,概述,为什么拥有大数据的互联网公司争相投入大量资源研发深度学习技术。听起来感觉deep learning很牛那样。那什么是deep learning?为什么有deep learning?它是怎么来的?又能干什么呢?目前存在哪些困难呢?这些问题的简答都需要慢慢来。咱们先来了解下机器学习(人工智能的核心)的背景。,背景,机器学习(Machine Learning)是一门专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识
9、或技能,重新组织已有的知识结构使之不断改善自身的性能的学科。机器能否像人类一样能具有学习能力呢? 1959年美国的塞缪尔(Samuel)设计了一个下棋程序,这个程序具有学习能力,它可以在不断的对弈中改善自己的棋艺。4年后,这个程序战胜了设计者本人。又过了3年,这个程序战胜了美国一个保持8年之久的常胜不败的冠军。这个程序向人们展示了机器学习的能力,提出了许多令人深思的社会问题与哲学问题,背景,在图像识别、语音识别、天气预测、基因表达等方面。目前我们通过机器学习去解决这些问题的思路都是这样的:,从开始的通过传感器来获得数据。然后经过预处理、特征提取、特征选择,再到推理、预测或者识别。最后一个部分,
10、也就是机器学习的部分,绝大部分的工作是在这方面做的。 中间的三部分,概括起来就是特征表达。良好的特征表达,对最终算法的准确性起了非常关键的作用,而且系统主要的计算和测试工作都耗在这一大部分。但这块实际中一般都是人工完成的。,背景,截止现在,也出现了不少NB的特征(好的特征应具有不变性(大小、尺度和旋转等)和可区分性):例如Sift的出现,是局部图像特征描述子研究领域一项里程碑式的工作。由于SIFT对尺度、旋转以及一定视角和光照变化等图像变化都具有不变性,并且SIFT具有很强的可区分性。但它也不是万能的。,背景,手工地选取特征是一件非常费力、启发式(需要专业知识)的方法,而且它的调节需要大量的时
11、间。既然手工选取特征不太好,那么能不能自动地学习一些特征呢?答案是能!Deep Learning就是用来干这个事情的,看它的一个别名Unsupervised Feature Learning,就可以顾名思义了,Unsupervised的意思就是不要人参与特征的选取过程。 那它是怎么学习的呢?怎么知道哪些特征好哪些不好呢?我们说机器学习是一门专门研究计算机怎样模拟或实现人类的学习行为的学科。好,那我们人的视觉系统是怎么工作的呢?,人脑视觉机理,1981 年的诺贝尔医学奖,颁发给了 David Hubel(出生于加拿大的美国神经生物学家) 和TorstenWiesel,以及 Roger Sperr
12、y。前两位的主要贡献,是“发现了视觉系统的信息处理”:可视皮层是分级的:,人脑视觉机理,1958 年,David Hubel 等,研究瞳孔区域与大脑皮层神经元的对应关系。他们在猫的后脑头骨上,开了一个3 毫米的小洞,向洞里插入电极,测量神经元的活跃程度。 他们在小猫的眼前,展现各种形状、各种亮度的物体。并且,在展现每一件物体时,还改变物体放置的位置和角度。他们期望通过这个办法,让小猫瞳孔感受不同类型、不同强弱的刺激。目的是去证明一个猜测。位于后脑皮层的不同视觉神经元,与瞳孔所受刺激之间,存在某种对应关系。一旦瞳孔受到某一种刺激,后脑皮层的某一部分神经元就会活跃。 经历了很多天反复的枯燥的试验,
13、同时牺牲了若干只可怜的小猫,David Hubel 发现了一种被称为“方向选择性细胞”的神经元细胞。当瞳孔发现了眼前的物体的边缘,而且这个边缘指向某个方向时,这种神经元细胞就会活跃。,人脑视觉机理,这个发现激发了人们对于神经系统的进一步思考。神经-中枢-大脑的工作过程,或许是一个不断迭代、不断抽象的过程。 这里的关键词有两个,一个是抽象,一个是迭代。从原始信号,做低级抽象,逐渐向高级抽象迭代。人类的逻辑思维,经常使用高度抽象的概念。,人脑视觉机理,例如,从原始信号摄入开始(瞳孔摄入像素 Pixels),接着做初步处理(大脑皮层某些细胞发现边缘和方向),然后抽象(大脑判定,眼前的物体的形状,是圆
14、形的),然后进一步抽象(大脑进一步判定该物体是只气球)。,人脑视觉机理,这个生理学的发现,促成了计算机人工智能,在四十年后的突破性发展。 总的来说,人的视觉系统的信息处理是分级的。从低级的V1区提取边缘特征,再到V2区的形状或者目标的部分等,再到更高层,整个目标、目标的行为等。也就是说高层的特征是低层特征的组合,从低层到高层的特征表示越来越抽象,越来越能表现语义或者意图。而抽象层面越高,存在的可能猜测就越少,就越利于分类。,人脑视觉机理,提到了关键词:分层。而Deep learning的deep是不是就表示我存在多少层,也就是多深呢?没错。那Deep learning是如何借鉴这个过程的呢?毕
15、竟是归于计算机来处理,面对的一个问题就是怎么对这个过程建模? 因为我们要学习的是特征的表达,那么关于特征,或者说关于这个层级特征,我们需要了解地更深入点。所以在说Deep Learning之前,我们有必要再啰嗦下特征,关于特征,特征是机器学习系统的原材料,对最终模型的影响是毋庸置疑的。如果数据被很好的表达成了特征,通常线性模型就能达到满意的精度。那对于特征,我们需要考虑什么呢?,1、特征表示的粒度,学习算法在一个什么粒度上的特征表示,才有能发挥作用?就一个图片来说,像素级的特征根本没有价值。例如下面的摩托车,从像素级别,根本得不到任何信息,其无法进行摩托车和非摩托车的区分。而如果特征是一个具有
16、结构性的时候,比如是否具有车把手(handle),是否具有车轮(wheel),就很容易把摩托车和非摩托车区分,学习算法才能发挥作用。,2、初级(浅层)特征表示,既然像素级的特征表示方法没有作用,那怎样的表示才有用呢? 1995 年前后,David Field 试图同时用生理学和计算机的手段,双管齐下,研究视觉问题。 他们收集了很多黑白风景照片,从这些照片中,提取出400个小碎片,每个照片碎片的尺寸均为 16x16 像素,不妨把这400个碎片标记为 Si, i = 0,. 399。接下来,再从这些黑白风景照片中,随机提取另一个碎片,尺寸也是 16x16 像素,不妨把这个碎片标记为 T。 他们提出
17、的问题是,如何从这400个碎片中,选取一组碎片,Sk, 通过叠加的办法,合成出一个新的碎片,而这个新的碎片,应当与随机选择的目标碎片 T,尽可能相似,同时,Sk 的数量尽可能少。用数学的语言来描述,就是: Sum_k (ak * Sk) - T, 其中 ak 是在叠加碎片 Sk 时的权重系数。,2、初级(浅层)特征表示,为解决这个问题,David Field 发明了一个算法,稀疏编码(Sparse Coding)。 稀疏编码是一个重复迭代的过程,每次迭代分两步: 1)选择一组 Sk,然后调整 ak,使得Sum_k (ak * Sk) 最接近 T。 2)固定住 ak,在 400 个碎片中,选择其
18、它更合适的碎片Sk,替代原先的 Sk,使得Sum_k (ak * Sk) 最接近 T。 经过几次迭代后,最佳的 Sk 组合,被遴选出来了。令人惊奇的是,被选中的 Sk,基本上都是照片上不同物体的边缘线,这些线段形状相似,区别在于方向。 David Field 的算法结果,与 杀猫者David Hubel 的生理发现,不谋而合!,2、初级(浅层)特征表示,也就是说,复杂图形,往往由一些基本结构组成。比如下图:一个图可以通过用64种正交的edges(可以理解成正交的基本结构)来线性表示。比如样例的x可以用1-64个edges中的三个按照0.8,0.3,0.5的权重调和而成。而其他基本edge没有贡
19、献,因此均为0,2、初级(浅层)特征表示,另外,大牛们还发现,不仅图像存在这个规律,声音也存在。他们从未标注的声音中发现了20种基本的声音结构,其余的声音可以由这20种基本结构合成。(同声传译的秘诀之一),3、结构性特征表示,小块的图形可以由基本edge构成,更结构化,更复杂的,具有概念性的图形如何表示呢? 这就需要更高层次的特征表示,比如V2,V4。因此V1看像素级是像素级。V2看V1是像素级,这个是层次递进的,高层表达由底层表达的组合而成。专业点说就是基basis。V1取提出的basis是边缘,然后V2层是V1层这些basis的组合,这时候V2区得到的又是高一层的basis。即上一层的ba
20、sis组合的结果,上上层又是上一层的组合basis(HHT有类似之处),3、结构性特征表示,直观上说,就是找到make sense的小patch再将其进行combine,就得到了上一层的feature,递归地向上learning feature。,3、结构性特征表示,在不同object上做training时,所得的edge basis 是非常相似的,但object parts和models 就会completely different了(那咱们分辨car或者face是不是容易多了):,3、结构性特征表示,一个人在看一个doc的时候,眼睛看到的是word,由这些word在大脑里自动切词形成ter
21、m,在按照概念组织的方式,先验的学习,得到topic,然后再进行高层次的learning。,研表究明,汉字的序顺并不定一能影阅响读,比如当你看完这句话后,才发这现里的天惊大秘密。,下面用5秒种看一段文字。,4、需要有多少个特征?,我们知道需要层次的特征构建,由浅入深,但每一层该有多少个特征呢? 任何一种方法,特征越多,给出的参考信息就越多,准确性会得到提升。但特征多意味着计算复杂,探索的空间大,可以用来训练的数据在每个特征上就会稀疏,都会带来各种问题,并不一定特征越多越好,好了,到了这一步,终于可以聊到Deep learning了。上面我们聊到为什么会有Deep learning(让机器自动学
22、习良好的特征,而免去人工选取过程。还有参考人的分层视觉处理系统),我们得到一个结论就是Deep learning需要多层来获得更抽象的特征表达。那么多少层才合适呢?用什么架构来建模呢?怎么进行非监督训练呢?,Deep Learning 基本思想,假设我们有一个系统S,它有n层(S1,Sn),它的输入是I,输出是O,形象地表示为: I =S1=S2=.=Sn = O,如果输出O等于输入I,即输入I经过这个系统变化之后没有任何的信息损失(呵呵,大牛说,这是不可能的。信息论中有个“信息逐层丢失”的说法(信息处理不等式),,Deep Learning 基本思想,设处理a信息得到b,再对b处理得到c,那
23、么可以证明:a和c的互信息不会超过a和b的互信息。这表明信息处理不会增加信息,大部分处理会丢失信息。当然了,如果丢掉的是没用的信息那多好啊),保持了不变,这意味着输入I经过每一层Si都没有任何的信息损失,即在任何一层Si,它都是原有信息(即输入I)的另外一种表示。 现在回到我们的主题Deep Learning,我们需要自动地学习特征,假设我们有一堆输入I(如一堆图像或者文本),假设我们设计了一个系统S(有n层),我们通过调整系统中参数,使得它的输出仍然是输入I,那么我们就可以自动地获取得到输入I的一系列层次特征,即S1,, Sn。,Deep Learning 基本思想,对于深度学习来说,其思想
24、就是对堆叠多个层,也就是说这一层的输出作为下一层的输入。通过这种方式,就可以实现对输入信息进行分级表达了。 另外,前面是假设输出严格地等于输入,这个限制太严格,我们可以略微地放松这个限制,例如我们只要使得输入与输出的差别尽可能地小即可,这个放松会导致另外一类不同的Deep Learning方法。上述就是Deep Learning的基本思想,浅层学习(Shallow Learning)和深度学习(Deep Learning),浅层学习是机器学习的第一次浪潮。 20世纪80年代末期,用于人工神经网络的反向传播算法(也叫Back Propagation算法或者BP算法)的发明,给机器学习带来了希望,
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 深度 知识 学习 及其 应用 利用 运用 机器 学术报告
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内