哈尔滨工业大学:再探深度学习词向量表示(PPT课件讲稿)Advanced word vector representations(主讲人:李泽魁)

紧需滚款学 HIT-SCIR 社会计算与信息检索研究中心 再探深度学习词向量表示 Advanced word vector representations 主讲人:李泽魁
再探深度学习词向量表示 Advanced word vector representations 主讲人:李泽魁

(R HIT-SCIR 目录 Lecture1知识点回顾 神经概率语言模型( Bengio2003) Word2vec( Mikolov 2013 (CBOW Skip-gram)*(HS NEG 词向量的评价方法 Softmax分类模型(原PPT乱入) 词向量的应用场景
目录 • Lecture 1 知识点回顾 • 神经概率语言模型(Bengio 2003) • Word2vec (Mikolov 2013) • (CBOW & Skip-gram) * (HS & NEG) • 词向量的评价方法 • Softmax分类模型(原PPT乱入) • 词向量的应用场景

R 目录对比 cS224 d Lecture3目录 Le cture1知识点回顾( Refresher ·词向量梯度下降&随机梯度下降(GD&SGD) 如何评测词向量 evaluate) ·SomX分类( softmax classification 若干习题集( oblem set) 本次目录 ecture1知识点回顾 神经概率语言模型( Bengio2003) Word2vec(Mikolo 2013 (CBOW& Skip-gram)*(HS NEG) 词向量的评价方法 Softmax分类模型(原PPT乱入) 词向量的应用场景
目录对比 cs224d Lecture 3 目录 • Lecture 1 知识点回顾 (Refresher) • 词向量梯度下降&随机梯度下降(GD & SGD) • 如何评测词向量(evaluate) • Softmax分类 (softmax classification) • 若干习题集 (problem set) • Lecture 1 知识点回顾 • 神经概率语言模型(Bengio 2003) • Word2vec (Mikolov 2013) • (CBOW & Skip-gram) * (HS & NEG) • 词向量的评价方法 • Softmax分类模型(原PPT乱入) • 词向量的应用场景 本次目录

知识点回顾:词向量 词向量表示 One-hot Representation “黑板”表示为[0001000000000000…] Distributional Representation “黑板”表示为[0.792,-0.177,-0.107,0.109,-0.542,…] 词向量降维 SVD. LSA, LDA Based on lexical co-occurrence Learning representations Predict surrounding words of every word 塔款大学⌒ Eg. word2vec 社会计算与信息检索研究中心
知识点回顾:词向量 • 词向量表示 – One-hot Representation • “黑板”表示为 [0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 ...] – Distributional Representation • “黑板”表示为 [0.792, −0.177, −0.107, 0.109, −0.542, ...] • 词向量降维 – SVD,LSA,LDA • Based on lexical co-occurrence – Learning representations • Predict surrounding words of every word • Eg. word2vec

R 知识点回顾 input& output vector 所以每个词w都有两个向量表示 input vecter:窗口内的中心向量( center vector)V output vector:非中心词向量( external vectors)v exp vwo Uwr Wow w 1 exp WI 例如 window size=1,句子 I like learning -like为 v like I、 learning为 vI v_learning
知识点回顾: input & output vector • 所以每个词w都有两个向量表示 – input vecter:窗口内的中心向量(center vector) v – output vector:非中心词向量(external vectors) v’ • 例如window size = 1,句子 I like learning – like为v_like – I、learning为v’_I v’_learning

R 知识点回顾 Simple wor2vec Predict surrounding words in a window of length c of every word T J()=7∑∑g+) t=1-c<jc,j≠0 aardvark exp (wo Uwr WoUI 6 之ebTa w=1 ex p ∈R2U aardvark eb
知识点回顾: Simple word2vec • Predict surrounding words in a window of length c of every word

R 知识点回顾:Wora2vec&GoVe ·Word2yeC Efficient Estimation of Word representations in Vector Space. Mikolov et al (2013) ()=7∑∑1gp(m+o) t=1-c<j<c,j≠0 GloVe Glove: Global vectors for Word representation Pennington et al.(2014) aggregated global word-word co-occurrence statistics from a corpus ∑∫(P3)(m面-ogP
知识点回顾: Word2Vec & GloVe • Word2Vec – Efficient Estimation of Word Representations in Vector Space. Mikolov et al. (2013) • GloVe – Glove: Global Vectors for Word Representation. Pennington et al. (2014) – aggregated global word-word co-occurrence statistics from a corpus

R 深度学习词向量的语言模型(引言) 语言模型:判定一句话是否为自然语言 传统的NLP语言模型(以N-gram为例) 如何计算一个句子的概率? 机器翻译:P( high winds tonite)>P( large winds tonite) 拼写纠错:P( about fifteen minutes fron)>P( about fifteen minuets from 语音识别:P( I saw a van)>>P( eyes awe of an) 音字转换:P(你现在干什么 nixianzaiganshenme)>P(你西安 在干什么| nixianzaiganshenme) ·自动文摘、问答系统、 塔款大学⌒ 社会计算与信息检索研究中心
深度学习词向量的语言模型(引言) • 语言模型:判定一句话是否为自然语言 • 传统的NLP语言模型(以N-gram为例) – 如何计算一个句子的概率? • 机器翻译:P(high winds tonite) > P(large winds tonite) • 拼写纠错:P(about fifteen minutes from) > P(about fifteen minuets from) • 语音识别:P(I saw a van) >> P(eyes awe of an) • 音字转换:P(你现在干什么|nixianzaiganshenme) > P(你西安 在干什么|nixianzaiganshenme) • 自动文摘、问答系统、...

R 深度学习词向量的语言模型(引言) °传统的NLP语言模型(以 N-gram为例) 如何计算一个句子的概率? 问题形式化定义 p(S)=p(w1,w2,W3,W4W5,…,Wn) p(W1)p(Ww2|W1)p(W3|W1,W2).p(Wn|W1,w2,…Wn-1) p(w1p(w2 w1p(w3 w2).p(wn/wn-1) 其他语言模型 指数语言模型 最大熵模型Maκinηt、最大熵马尔科夫模型MEMM、条件随机域 模型CRF(平滑→语法、语义的加入) 神经概率语言模型 Bengio2003、 Nikolov2013等 塔款大学⌒ 社会计算与信息检索研究中心
深度学习词向量的语言模型(引言) • 传统的NLP语言模型(以N-gram为例) – 如何计算一个句子的概率? – 问题形式化定义 • p(S)=p(w1,w2,w3,w4,w5,…,wn) • =p(w1)p(w2|w1)p(w3|w1,w2)...p(wn|w1,w2,...,wn-1) • =p(w1)p(w2|w1)p(w3|w2)...p(wn|wn-1) • 其他语言模型 – 指数语言模型 • 最大熵模型MaxEnt、最大熵马尔科夫模型MEMM、条件随机域 模型CRF(平滑→语法、语义的加入) – 神经概率语言模型 • Bengio2003、Mikolov2013等

R 深度学习语言模型都有哪些?(粗略) 2000年,徐伟,神经网络训练语言模型 <Can artificial Neural networks learn language Models?》 用神经网络构建二元语言模型(即P(wt|wt-1)的方 法 徐伟 杰出科字家 现任百度深度学习研究院杰出科学家”,负责深 度学习平台的开发以及算法的研究。 塔款大学⌒ 社会计算与信息检索研究中心
深度学习语言模型都有哪些?(粗略) • 2000年,徐伟,神经网络训练语言模型 – 《Can Artificial Neural Networks Learn Language Models?》 – 用神经网络构建二元语言模型(即 P(wt|wt−1))的方 法
按次数下载不扣除下载券;
注册用户24小时内重复下载只扣除一次;
顺序:VIP每日次数-->可用次数-->下载券;
- 中国科学技术大学:《Linux操作系统分析》课程教学资源(PPT课件讲稿)文件系统.ppt
- 华北科技学院:数字视频教学软件与制作(PPT课件讲稿)数字视频编辑软件Premiere 6.5(主讲:于文华).ppt
- Introduction to Convolution Neural Networks(CNN)and systems.pptx
- 《编译原理》课程教学资源(PPT课件讲稿)第八章 代码生成.ppt
- 《数字图像处理》课程PPT教学课件(讲稿)第四章 点运算.ppt
- 《计算机系统安全》课程教学资源(PPT课件讲稿)第七章 公开密钥设施PKI Public key infrastructure.ppt
- 《密码学》课程教学资源(PPT课件讲稿)第10章 密码学的新方向.ppt
- 清华大学:Local Area Network and Ethernet(PPT课件讲稿).pptx
- 《计算机组成与设计》课程教学资源(PPT课件讲稿)第2章 指令——计算机的语言.ppt
- 《数据挖掘导论 Introduction to Data Mining》课程教学资源(PPT课件讲稿)Data Mining Classification(Basic Concepts, Decision Trees, and Model Evaluation).ppt
- 《微型计算机原理及接口技术》课程电子教案(PPT课件)第9章 AT89S52单片机的I/O扩展.ppt
- 四川大学:《计算机网络 Computer Networks》课程教学资源(PPT课件讲稿)Unit5 Introduction to Computer Networks.ppt
- 《计算机软件技术基础》课程教学资源(PPT课件讲稿)排序(教师:曾晓东).ppt
- 西安电子科技大学:《数据库系统 DataBase System》课程教学资源(PPT课件讲稿)normalization.ppt
- 《单片机原理及应用》课程教学资源(PPT课件讲稿)第11章 单片机应用系统的串行扩展.ppt
- 中国科学技术大学:《计算机体系结构》课程教学资源(PPT课件讲稿)第7章 多处理器及线程级并行 7.1 引言 7.2 集中式共享存储器体系结构.pptx
- 上海交通大学:操作系统安全(PPT课件讲稿)设备管理与I/O系统.pps
- 《编辑原理》课程教学资源(PPT课件)目标代码生成.pptx
- 四川大学:Object-Oriented Design and Programming(Java,PPT课件)3.2 Graphical User Interface.ppt
- 《计算机系统结构》课程教学资源(PPT课件讲稿)第三章 流水线技术.ppt
- 《Visual Basic程序设计》课程教学资源(PPT课件讲稿)第四章 VB的基本语句.pps
- 《单片机原理及应用》课程PPT教学课件(C语言版)第4章 C51程序设计入门(单片机C语言及程序设计).ppt
- 西安培华学院:《微机原理》课程教学资源(PPT课件讲稿)第一章 绪论.ppt
- 《数据结构与算法》课程教学资源(PPT课件讲稿)第三章 树 3.1 树的有关定义.ppt
- 《计算机网络》课程教学资源(考试大纲)计算机网络考试大纲.doc
- 西安电子科技大学:《Mobile Programming》课程PPT教学课件(Android Programming)Lecture 2 Intro to Java Programming.pptx
- 西安电子科技大学:《数据库系统 DataBase System》课程教学资源(PPT课件讲稿)Unit 2 The Relational Model.ppt
- 《C语言程序设计》课程教学资源(PPT课件讲稿)第6章 用数组处理批量数据.pptx
- 电子工业出版社:《计算机网络》课程教学资源(第六版,PPT课件讲稿)第六章 应用层.pptx
- 清华大学:《计算机导论》课程电子教案(PPT教学课件)第3章 计算机基础知识.ppt
- 中国科学技术大学:《现代密码学理论与实践》课程教学资源(PPT课件讲稿)第4章 有限域(第五版).pptx
- 西安电子科技大学:《数据库系统 DataBase System》课程教学资源(PPT课件讲稿)Unit 3 SQL.ppt
- 《人工智能技术导论》课程教学资源(PPT课件讲稿)第2章 逻辑程序设计语言.ppt
- 《数据结构》课程教学资源(PPT课件讲稿)第六章 查找.ppt
- 上海交通大学:云安全(PPT讲稿)Cloud Security.pptx
- 《计算机网络》课程教学大纲(适用专业:信息与计算科学).pdf
- 江苏大学:《面向对象建模技术》课程教学资源(PPT课件讲稿)第2章 用例图.ppt
- 《网络营销实务》课程教学资源(PPT课件讲稿)第二章 网络营销环境分析.ppt
- 《数据结构》课程教学资源(PPT课件讲稿)第七章 搜索结构第七章 搜索结构.ppt
- 丽水职业技术学院:《电子商务实训》课程教学资源(PPT课件讲稿)电子商务交易模式之“B2B”——电子合同模式.ppt