Word2Vec(词向量)---机器学习

在这里插入图片描述

Word2Vec是一种用于将词语映射到向量空间的词嵌入技术,它通过学习大量文本语料库中的词语上下文关系,将每个词语表示为高维向量。这一表示形式使得具有相似语境的词语在向量空间中更加接近。

Word2Vec有两个主要的实现算法:Skip-gram和CBOW(Continuous Bag of Words)。以下是对Word2Vec的一些重点介绍:

  1. Skip-gram和CBOW:
    Skip-gram: 通过给定中心词来预测其周围的上下文词,可以用于生成更准确的词向量,特别适用于较大的数据集。
    CBOW: 通过给定周围的上下文词来预测中心词,相对于Skip-gram,CBOW更快,尤其在小型数据集上效果良好。

如下图:左为CBOW,右为Skip-gram
在这里插入图片描述

  1. 训练过程:
    1、 Word2Vec的训练过程基于神经网络,通常是一个浅2、层的神经网络。
    3、 输入层为词汇表中的每个词,输出层为对应的词向量。
    4、隐藏层的权重矩阵即为最终学到的词嵌入矩阵。

  2. 相似性和关系:
    1、在Word2Vec生成的向量空间中,词语的相似性可以通过计算它们之间的余弦相似度来衡量。
    、向量之间的运算,如king - man + woman,可以用来找到具有类似语义关系的词语,例如queen。

  3. 面试考点:
    原理和算法: 理解Word2Vec的基本原理,了解Skip-gram和CBOW的区别,以及它们是如何通过神经网络进行训练的。
    应用和优势: 知道Word2Vec在自然语言处理中的应用,以及它相对于传统的词袋模型等方法的优势。
    调参和性能: 熟悉Word2Vec的一些重要参数,如窗口大小、向量维度等,以及它们如何影响模型的性能。
    训练时间和数据规模: 考虑Word2Vec在大规模数据上的训练时间和在小规模数据上的表现。


关于Word2Vec若干问题的思考
(1)Word2Vec两个算法模型的原理是什么,网络结构怎么画?
Word2Vec有两个主要的算法模型:Skip-gram和CBOW。下面分别介绍它们的原理和网络结构。

Skip-gram模型原理:

  1. 原理: Skip-gram模型的目标是从一个词中预测其周围的上下文词

  2. 网络结构:
    输入层: 词汇表的大小,每个词被表示为一个独热编码向量。
    隐藏层: 单层的权重矩阵,用于将输入向量映射到隐含层的向量。这个向量即为词向量。
    输出层: 词汇表的大小,每个输出单元对应一个词,输出的概率表示给定中心词的情况下,周围的词是其他词的概率。

  3. 训练过程:
    1、 输入为中心词,目标是预测周围的上下文词。
    2、使用softmax函数将输出层的原始分数转换为概率分布。
    3、最小化损失函数,例如交叉熵,以更新权重矩阵,使预测的上下文词概率最大化。

  4. 优点:
    对于大规模数据集,Skip-gram通常能够学到更准确的词向量。

CBOW模型原理:

  1. 原理: CBOW模型的目标是从上下文词的平均来预测中心词

  2. 网络结构:
    输入层: 词汇表的大小,每个词被表示为一个独热编码向量。
    隐藏层: 单层的权重矩阵,用于将输入向量映射到隐含层的向量,再取平均。
    输出层: 词汇表的大小,每个输出单元对应一个词,输出的概率表示给定上下文词的情况下,中心词是其他词的概率。

  3. 训练过程:
    输入为周围的上下文词的平均,目标是预测中心词。
    使用softmax函数将输出层的原始分数转换为概率分布。
    最小化损失函数,例如交叉熵,以更新权重矩阵,使预测的中心词概率最大化。

  4. 优点:
    相对于Skip-gram,CBOW在小规模数据集上通常训练速度更快

网络结构示意图:

  • Skip-gram模型:

    输入层:        隐藏层:         输出层:
    ---------     ---------     ---------
    | Word  |     |         |     | Word  |
    ---------     |  Word   |     ---------
                  | Vectors |     | Prob. |
                  |         |     ---------
                  -----------
    
  • CBOW模型:

    输入层:         隐藏层:          输出层:
    ---------     -----------     ---------
    | Context|     |           |     | Word  |
    ---------     |  Word     |     ---------
                  | Vectors   |     | Prob. |
                  | (Average) |     ---------
                  -------------
    

这些示意图只是简化的表示,实际的神经网络可能包含更多细节和参数。在训练过程中,这些模型通过调整权重矩阵来最小化损失函数,从而学习每个词的向量表示。


(2)网络输入输出是什么?隐藏层的激活函数是什么?输出层的激活函数是什么?

在Word2Vec的Skip-gram和CBOW模型中,网络的输入、输出以及隐藏层的激活函数等有一些特定的设置:

Skip-gram 模型:

输入:
输入层:中心词的独热编码向量(词汇表大小的向量)。
输出:
输出层:上下文词的独热编码向量(词汇表大小的向量)。

隐藏层:
没有明确的激活函数,可以视为线性变换。
隐藏层的输出即为中心词的词向量。

CBOW 模型:

输入:
输入层:上下文词的独热编码向量的平均值(词汇表大小的向量)。

输出:
输出层:中心词的独热编码向量(词汇表大小的向量)。

隐藏层:
没有明确的激活函数,可以视为线性变换。
隐藏层的输出即为上下文词平均值的词向量。

激活函数:

隐藏层:
通常没有显式的激活函数。隐藏层可以看作是一个线性变换,负责将输入映射到词向量空间。

输出层:
一般使用 softmax 激活函数。Softmax 函数将输出转换为概率分布,表示每个词作为上下文或中心词的概率。

这些设置在Word2Vec中是为了满足模型的特定目标,即通过最小化损失函数来学习词向量。在实际应用中,也可以根据任务的需求进行调整和改进。


(3)Word2Vec的两个模型哪个效果好哪个速度快?为什么?

(4)Word2Vec加速训练的方法有哪些?

(5)介绍下Negative Sampling,对词频低的和词频高的单词有什么影响?为什么?

(6)Word2Vec和隐狄利克雷模型(LDA)有什么区别与联系?

总体而言,了解Word2Vec的原理、应用和一些调参技巧是在面试中展示对自然语言处理技术的理解和实际运用的重要方面。

猜你喜欢

转载自blog.csdn.net/weixin_42367888/article/details/135344821