Word2vec学习记录

one-hot表示

主要问题

  • 无法准确表达不同词之间的相似度,没有任何语义信息

以下内容主要摘抄自

分布假说(distributional hypothesis)

Harris 在 1954 年提出的分布假说(distributional hypothesis):上下文相似的词,其语义也相似 。Firth 在 1957 年对分布假说进行了进一步阐述和明确:词的语义由其上下文决定(a word is characterized by the company it keeps。到目前为止,基于分布假说的词表示方法,根据建模的不同,主要可以分为三类:基于矩阵的分布表示、基于聚类的分布表示和基于神经网络的分布表示。从广义上看,所有基于分布假说得到的表示均可称为分布表示(distributional representation),如上述的三种。而狭义的分布表示通常指基于矩阵的分布表示 。

基于矩阵的分布表示

这类方法构建一个“词-上下文”矩阵,从矩阵中获取词的表示。在“词-上下文”矩阵中,每行对应一个词,每列表示一种不同的上下文,矩阵中的每个元素对应相关词和上下文的共现次数。在这种表示下,矩阵中的一行,就成为了对应词的表示,这种表示描述了该词的上下文的分布。由于分布假说认为上下文相似的词,其语义也相似,因此在这种表示下,两个词的语义相似度可以直接转化为两个向量的空间距离。这类方法具体可以分为三个步骤:

  1. 选取上下文。最常见的有三种方法:第一种,将词所在的文档作为上下文,形成“词-文档”矩阵 ;第二种,将词附近上下文中的各个词作为上下文,形成“词-词”矩阵;第三种,将词附近上下文各词组成的 n 元词组(n-gram)作为上下文。在这三种方法中,“词-文档”矩阵非常稀疏,而“词-词”矩阵相对较为稠密,效果一般好于前者。“词-n 元词组”相对“词-词”矩阵保留了词序信息,建模更精确,但由于比前者更稀疏,实际效果不一定能超越前者。
  2. 确定矩阵中各元素的值。“词-上下文”共现矩阵根据其定义,里面各元素的值应为词与对应的上下文的共现次数。然而直接使用原始共现次数作为矩阵的值在大多数情况下效果并不好,因此研究人员提出了多种加权和平滑方法,最常用的有 tf-idf、PMI 和直接取 log。
  3. 矩阵分解(可选)。在原始的“词-上下文”矩阵中,每个词表示为一个非常高维(维度是不同上下文的总个数)且非常稀疏的向量,使用降维技术可以将这一高维稀疏向量压缩成低维稠密向量。降维技术可以减少噪声带来的影响,但也可能损失一部分信息。最常用的分解技术包括奇异值分解(SVD)、非负矩阵分解(NMF)、典型关联分析(Canonical Correlation Analysis,CCA)、Hellinger PCA(HPCA)。基于矩阵的分布表示在这些步骤的基础上,衍生出了若干不同方法,如经典的 LSA 就是使用“词-文档”矩阵,tf-idf 作为矩阵元素的值,并使用 SVD分解,得到词的低维向量表示。在这类方法中,最新的为 GloVe 模型 。

Global Vector 模型(GloVe)

总体上看,GloVe 模型是一种对“词-词”矩阵进行分解从而得到词表示的方法。矩阵第 \(i\) 行第 \(j\) 列的值为词 \(v_i\) 与词 \(v_j\) 在语料中的共现次数 \(x_{ij}\) 的对数。在矩阵分解步骤,GloVe 模型借鉴了推荐系统中基于隐因子分解(Latent Factor Model)的方法,在计算重构误差时,只考虑共现次数非零的矩阵元素,同时对矩阵中的行和列加入了偏移项。具体为最小化下式:
\[ \sum_{i, j \in \mathrm{V}, x_{i j} \neq 0} f\left(x_{i j}\right)\left(\log \left(x_{i j}\right)-\boldsymbol{p}_{i}^{\mathrm{T}} \boldsymbol{q}_{j}+\boldsymbol{b}_{i}^{(1)}+\boldsymbol{b}_{j}^{(2)}\right)^{2} \]
其中 \(\boldsymbol{p}_{i}\) 为词 \(v_i\) 作为目标词时的词向量,\(\boldsymbol{q}_{j}\) 为词 \(v_j\) 作为上下文时的词向量,\(b^{(1)}\)\(b^{(2)}\) 为针对词表中各词的偏移向量,\(f(x)\) 是一个加权函数,对低频的共现词对进行衰减,减少低频噪声带来的误差,定义为
\[ f(x)=\left\{\begin{array}{l}{\left(x / x_{\max }\right)^{\alpha}},if\,\, x < xmax \\ {1},others\end{array}\right. \]

基于神经网络的分布表示

基于神经网络的分布表示一般称为词向量、词嵌入(word embedding)或分布式表示(distributed representation)。
几个重要模型

  • 神经网络语言模型(Neural Network Language Model ,NNLM)
  • log双线性语言模型(Log-Bilinear Language Model,LBL)
  • 循环神经网络语言模型(Recurrent Neural Network based Language Model,RNNLM)
  • word2vec
    下面主要介绍word2vec,这也是现在最流行的表示方法之一。

word2vec

word2vec不是一个单一模型,实际是两个表示模型 CBOW(Continuous Bagof-Words), Skip-Gram和两个优化训练的方法Negative-Sampling和Hierarchical Softmax的方法组成的

skip-gram

跳字模型基于某个词来生成它在文本序列周围的词。且假设给定中心词的情况下,背景词的生成是相互独立的,算法如下:

表示说明:
词库大小设为\(|V|\)
\(w_i\):词库中的第\(i\)个单词
\(\mathcal{V} \in \mathbb{R}^{n \times|V|}\):输入矩阵
\(v_{i}\):输入矩阵的第\(i\)列,实际就是\(w_i\)的向量表示。
\(\mathcal{U} \in \mathbb{R}^{[V| \times n}\):输出矩阵
\(u_i\):输出矩阵的第\(i\)行,\(w_i\)的输出向量表示
步骤:

  1. 生成输入中心词的one-hot表示 \(x \in \mathbb{R}^{|V|}\)
  2. 词嵌入\(v_{c}=\mathcal{V} x \in \mathbb{R}^n\)
  3. \(z=\mathcal{U} v_{c}\)
  4. \(\hat{y}=\operatorname{softmax}(z)\)
  5. \(\hat{y}_{c-m}, \ldots, \hat{y}_{c-1}, \hat{y}_{c+1}, \dots, \hat{y}_{c+m}\)作比较

目标函数:
\[ \begin{aligned} \text { minimize } J &=-\log P\left(w_{c-m}, \ldots, w_{c-1}, w_{c+1}, \ldots, w_{c+m} | w_{c}\right) \\ &=-\log \prod_{j=0, j \neq m}^{2 m} P\left(w_{c-m+j} | w_{c}\right) \\ &=-\log \prod_{j=0, j \neq m}^{2 m} P\left(u_{c-m+j} | v_{c}\right) \\ &=-\log \prod_{j=0, j \neq m}^{2 m} \frac{\exp \left(u_{c-m+j}^{T} v_{c}\right)}{\sum_{k=1}^{T} \exp \left(u_{k}^{T} v_{c}\right)} \\ &=-\sum_{j=0, j \neq m}^{2 m} u_{c-m+j}^{T} v_{c}+2 m \log \sum_{k=1}^{|V|} \exp \left(u_{k}^{T} v_{c}\right) \end{aligned} \]
另一种表达:
\[ \begin{aligned} J &=-\sum_{j=0, j \neq m}^{2 m} \log P\left(u_{c-m+j} | v_{c}\right) \\ &=\sum_{j=0, j \neq m}^{2 m} H\left(\hat{y}, y_{c-m+j}\right) \end{aligned} \]
\(H\left(\hat{y}, y_{c-m+j}\right)\)表示交叉熵
利用了独立性假设,然后梯度下降更新参数即可。

CBOW

连续词袋模型与跳字模型类似。与跳字模型最大的不同在于,连续词袋模型假设基于某中心词在文本序列前后的背景词来生成该中心词。因为连续词袋模型的背景词有多个,我们将这些背景词向量取平均,然后使用和跳字模型一样的方法来计算条件概率。

表示说明:
词库大小设为\(|V|\)
\(w_i\):词库中的第\(i\)个单词
\(\mathcal{V} \in \mathbb{R}^{n \times|V|}\):输入矩阵
\(v_{i}\):输入矩阵的第\(i\)列,实际就是\(w_i\)的向量表示。
\(\mathcal{U} \in \mathbb{R}^{[V| \times n}\):输出矩阵
\(u_i\):输出矩阵的第\(i\)行,\(w_i\)的输出向量表示
步骤:

  1. 输入:根据窗口大小生成one-hot的上下文向量 \(\left(x^{(c-m)}, \ldots, x^{(c-1)}, x^{(c+1)}, \ldots, x^{(c+m)} \in \mathbb{R}^{|V|}\right)\)
  2. 得到上下文的embedded word vectors\((v_{c-m} = \mathcal{V} x^{(c-m)}, v_{c-m+1}=\mathcal{V} x^{(c-m+1)}, \ldots, v_{c+m}=\mathcal{V} x^{(c+m)} \in \mathbb{R}^{n} )\)
  3. 求平均\(\hat{v}=\frac{v_{c-m}+v_{c-m+1}+\ldots+v_{c+m}}{2 m} \in \mathbb{R}^{n}\)
  4. 生成score vector \(z=\mathcal{U} \hat{v} \in \mathbb{R}^{|V|}\)
  5. softmax,\(\hat{y}=\operatorname{softmax}(z) \in \mathbb{R}^{|V|}\),实际就是给定中心词,产生上下文的概率。与真实作比较,定义损失函数,一般是交叉熵。groundtruth是样本对应的那个词的one-hot表示。

对于每个单词,我们想要得到的是两个向量,\(v\): (input vector) when the word is in
the context,\(u\): (output vector) when the word is in the center,输入和输出矩阵是我们想要学习的参数。一个问题是我们究竟用哪一个作为embedding呢?实际上输入和输出矩阵都可以作为embedding,但是原文中使用的是输入矩阵作为embedding。
如何计算:
\[ \begin{aligned} \text { minimize } J &=-\log P\left(w_{c} | w_{c-m}, \ldots, w_{c-1}, w_{c+1}, \ldots, w_{c+m}\right) \\ &=-\log P\left(u_{c} | \hat{v}\right) \\ &=-\log \frac{\exp \left(u_{c}^{T} \hat{v}\right)}{\sum_{j=1}^{|V|} \exp \left(u_{j}^{T} \hat{v}\right)} \\ &=-u_{c}^{T} \hat{v}+\log \sum_{j=1}^{|V|} \exp \left(u_{j}^{T} \hat{v}\right) \end{aligned} \]
然后用梯度下降的方法更新参数即可。

Negative Sampling

基于skip-gram,上面推导的两个目标函数最大的问题是连加那里,要对整个词库进行计算,对于大词库,这是很大运算量,所以想办法近似求解。负采样修改了原来的目标函数。给定中心词 \(c\) 的一个背景窗口,我们把背景词 \(w\) 出现在该背景窗口看作一个事件
考虑\((w,c)\)是否来自训练数据,来自训练数据的概率可以表示为:
\[ P(D=1 | w, c, \theta)=\sigma\left(v_{c}^{T} v_{w}\right)=\frac{1}{1+e^{\left(-v_{c}^{T} v_{w}\right)}} \]
转变优化目标为,当中新词和上下文来自训练数据时最大化其概率,不来自的时候,最大化不来自的概率。然后简单的用极大似然估计:
\[ \begin{align} \theta &= \underset{\theta}{\operatorname{argmax}} \prod_{(w, c) \in D} P(D=1 | w, c, \theta) \prod_{(w, c) \in \tilde{D}} P(D=0 | w, c, \theta) \\ &=\underset{\theta}{\operatorname{argmax}} \prod_{(w, c) \in D} P(D=1 | w, c, \theta) \prod_{(w, c) \in \tilde{D}}(1-P(D=1 | w, c, \theta)) \\ & =\underset{\theta}{\operatorname{argmax}} \sum_{(w, c) \in D} \log P(D=1 | w, c, \theta)+\sum_{(w, c) \in \tilde{D}} \log (1-P(D=1 | w, c, \theta)) \\ &=\underset{\theta}{\operatorname{argmax}} \sum_{(w, c) \in D} \log \frac{1}{1+\exp \left(-u_{w}^{T} v_{c}\right)}+\sum_{(w, c) \in \tilde{D}} \log \left(1-\frac{1}{1+\exp \left(-u_{w}^{T} v_{c}\right)}\right) \\ &=\underset{\theta}{\operatorname{argmax}} \sum_{(w, c) \in D} \log \frac{1}{1+\exp \left(-u_{w}^{T} v_{c}\right)}+\sum_{(w, c) \in \tilde{D}} \log \left(\frac{1}{1+\exp \left(u_{w}^{T} v_{c}\right)}\right) \end{align} \]
极大似然也就等价于极小以下函数:
\[ J=-\sum_{(w, c) \in D} \log \frac{1}{1+\exp \left(-u_{w}^{T} v_{c}\right)}-\sum_{(w, c) \in \tilde{D}} \log \left(\frac{1}{1+\exp \left(u_{w}^{T} v_{c}\right)}\right) \]
对于skip-gram得到新的目标函数
\[ -\log \sigma\left(u_{c-m+j}^{T} \cdot v_{c}\right)-\sum_{k=1}^{K} \log \sigma\left(-\tilde{u}_{k}^{T} \cdot v_{c}\right) \]

Hierarchical Softmax

coming soon

猜你喜欢

转载自www.cnblogs.com/cuhm/p/10537564.html
今日推荐