word2vec词向量模型教学教材.ppt
《word2vec词向量模型教学教材.ppt》由会员分享,可在线阅读,更多相关《word2vec词向量模型教学教材.ppt(19页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、word2vec词向量模型前言计算机人类VS语言模型判断一句话是不是正常人说出来的给定一个字符串”w1,w2,w3,w4,wt”,计算它是自然语言的概率、P(w1,w2,wt)=P(w1)P(w2|w1)P(w3|w1,w2)P(wt|w1,w2,wt1)P(大家,喜欢,吃,苹果)=p(大家)p(喜欢|大家)p(吃|大家,喜欢)p(苹果|大家,喜欢,吃)p(大家)表示“大家”这个词在语料库里面出现的概率;p(喜欢|大家)表示“喜欢”这个词出现在“大家”后面的概率;p(吃|大家,喜欢)表示“吃”这个词出现在“大家喜欢”后面的概率;p(苹果|大家,喜欢,吃)表示“苹果”这个词出现在“大家喜欢吃”后
2、面的概率。把这些概率连乘起来,得到的就是这句话平时出现的概率。如果这个概率特别低,说明这句话不常出现,那么就不算是一句自然语言,因为在语料库里面很少出现。如果出现的概率高,就说明是一句自然语言。常用的语言模型都是在近似地求P(wt|w1,w2,wt1)。比如n-gram模型就是用P(wt|wtn+1,wt1)近似表示前者。N-pos先对词进行了词性分类123 模型与方法基本概念实际应用目录Word2VecGoogle的Mikolov在2013年推出了一款计算词向量的工具word2vec作为神经概率语言模型的输入,其本身其实是神经概率模型的副产品,是为了通过神经网络学习某个语言模型而产生的中间结
3、果。具体来说,“某个语言模型”指的是“CBOW”和“Skip-Gram”。具体学习过程会用到两个降低复杂度的近似方法HierarchicalSoftmax或NegativeSampling。CBOW:ContinuousBag-of-WordsSkip-Gram:ContinuousSkip-GramModelHierarchicalSoftmaxNegativeSampling两个语言模型两种优化方法CBOW and Skip-Gram初始化值是零向量,叶节点对应的单词的词向量是随机初始化的。CBOW的目标是根据上下文来预测当前词语的概率Skip-Gram恰好相反,它是根据当前词语来预测上下
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- word2vec 向量 模型 教学 教材
限制150内