前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >从 Embedding 到 Word2Vec

从 Embedding 到 Word2Vec

作者头像
EmoryHuang
发布2022-10-31 16:58:34
5610
发布2022-10-31 16:58:34
举报
文章被收录于专栏:EmoryHuang's BlogEmoryHuang's Blog

从 Embedding 到 Word2Vec

前言

Word Embedding 是将自然语言中的「单词」转换为「向量」或「矩阵」,使计算机更容易理解它们,你常常可以在自然语言处理的工作中见到这种方法。而 Word2Vec 正是 Word Embedding 的一种。

关于 Word Embedding 以及 Word2Vec,它们的基本思想我并不陌生,之前也有粗略地看过 NLP 相关的东西,最近接手毕业师兄的一些工作,想着也是要好好补一下 NLP 的这些东西了。

什么是 Embedding ?

在自然语言处理中,我们首先面对的是词语,而不是数字。以中译英翻译为例,我们有一系列的数据 (x, y),其中 xy 分别是中文和对应的英文单词,我们的任务是需要构建 f(x) -> y 的映射。

但是,我们遇到的第一个问题就是如何处理 x 也就是中文词语?我们的神经网络模型,只能接受数字的输入,而我们现有的词语则是符号形式的,人类的抽象总结,因此我们需要将它们转换为数字形式。

换句话说,利用词嵌入的方法通常是为一个特定的单词生成一个向量,然后训练它,用单词的上下文来表示这个单词。

我们希望,在经过充分训练后,两个向量之间的相对距离可以表示两个对应词的关系(相似性)。正如上图所展示的例子,猫和狗都是动物,因此 CatDogEmbedding 更接近,类似的,GoodNiceEmbedding 也更接近。相反的,它们与 Table 的差距就非常大了,我们也可以猜测 Chair``、Tabulation 等单词的 EmbeddingTable 的距离更近。

接下来我们要讨论的就是具体怎么做了,如何将词语转换为向量。

One-hot Encoding

首先来看一下 One-hot 编码,它将词语进行编码,本质上是用一个只含一个 1、其他都是 0 的向量来唯一表示词语。

举个例子,我们有一个字典 dict,字典中共有 N = 4 个词语 dict = {'Python', 'C++', 'Java', 'R'},那么我们就可以这样进行编码:

词语

编码

Python

1000

C++

0100

Java

0010

R

0001

这样我们就可以用 N-10 和单个 1 组成的向量来表示每个类别。

One-hot 编码的问题

虽然 One-hot 编码能够通过一种非常简单的方式对词语进行编码,但它的缺点也非常明显。

  1. 众所周知,维数越少越好,但 One-hot 编码却增加了大量的维度。
  2. 数据稀疏。One-hot 编码实际上没有太多的信息,0 的数量远远超过 1
  3. 映射之间完全独立。即并不能表示出不同类别之间的关系。

Word2Vec

首先我们需要了解一下 Word2Vec 的两个模型:CBOWSkip-Gram

还是来看个例子吧,可以很明显的看出两个模型的区别:

Continuous Bag-of-Word Model

CBOW 简单情形

CBOW 模型通过上下文来预测当前值,首先我们从简单的情形开始,即一对一的情况。

用当前词 x 预测它的下一个词 y

我们假设,词汇表大小为

,隐藏层大小为

模型的输入是经过 One-hot 编码的向量

,正如我们前面提到的,这个向量中只有一个 1,其余都是 0

输入层到隐藏层之间有一个

大小的权重矩阵

,由此可以计算得到隐藏层:

我们可以注意到,由于

One-hot 编码的向量,有且仅有 1 个值为 1,因此上面的计算结果本质就相当于选择了权重矩阵

的某一行。那么能不能通过

中的这某一行来作为这个单词的向量表示呢?

答案是肯定的,每个词语的 One-hot 编码里面 1 的位置是不同,因此对应的矩阵

中的那一行向量也是不同的。因此,对于输入单词

,我们可以使用

​​作为其向量表示,其中

​​是

的第iii行。

同时,这也意味着隐藏层的激活函数其实是线性的。

另外一方面,从隐藏层到输出层还有一个

大小的权重矩阵

,类似的,输出层向量y的每一个值,其实就是隐藏层的向量

点乘权重向量

的每一列:

其中,

的第

列。最后是 softmax:

其中

是输出层的第

个单元。综合上面两个式子,可以得到:

是单词

的两种表示,分别为「输入向量」和「输出向量」。

举个例子,

,我们来看一下具体的计算过程:

损失函数

在了解了模型的框架之后,我们更进一步,考虑损失函数的部分。

其中,

就是损失函数。

当我们通过从训练语料库中产生的上下文-目标词对来迭代更新模型参数时,对向量的影响将不断累积。我们可以想象,一个词

的输出向量被其上下文不断影响。同样地,一个输入向量也可以被认为是被许多输出向量所拖动。经过多次迭代,输入和输出向量的相对位置最终会稳定下来。

你可以在这个可视化网站中进一步了解其原理 wevi: word embedding visual inspector

具体的反向传播过程这里就不进行说明了,你可以在参考资料 1中找到完整的计算过程。

更一般的形式

正如我们之前提到的,CBOW 模型通过上下文来预测当前值,那么我们就需要把简单的一对一的模型改造成多个输入的模型:

在计算隐藏层输出时,CBOW 模型不是直接取输入上下文词的输入向量,而是取输入上下文词向量的平均值

其中

是上下文的单词数,

​是上下文单词,

​是单词

的输入向量。损失函数:

Skip-Gram Model

Skip-Gram 模型通过当前值来预测上下文,我们首先来看看模型的结构,很显然,它正好与 CBOW 模型相反,目标字现在在输入层上,而上下文在输出层上。

类似的,计算隐藏层向量

Skip-Gram 通过输入一个词去预测多个词的概率。输入层到隐藏层的原理和 simple CBOW 一样,不同的是隐藏层到输出层,损失函数变成了

个词损失函数的总和,权重矩阵

还是共享的。

隐藏层 → 输出层:

损失函数:

小结

好了,到了这里就已经基本讲完 Word2Vec 的两个模型以及其实现原理了,接下来我们来看看针对模型的优化问题。如果你只是想了解 Word2Vec 的大致原理,那么你也可以跳过优化计算部分。

优化计算效率

Word2vec 本质上是一个语言模型,它的输出节点数是

个,对应了

个词语,本质上是一个多分类问题,但实际当中,词语的个数非常非常多,会给计算造成很大困难,所以需要用技巧来加速训练。

为了解决这个问题,作者提出了两个解决方案,hierarchical softmaxnegative sampling

Hierarchical Softmax

层次 softmax 使用二叉树来表示词汇表中的所有单词,其中每个单词均是叶子结点。对于每个叶子结点,存在一条从根到叶子结点的唯一路径;而这条路径被用来估计叶子结点所代表的词的概率。

在层次 softmax 模型中,我们使用这样的一棵 Huffman 数来替代输出层,因此对于单词www,模型中就不存在其「输出向量」表示。取而代之的是,

个非叶子结点中都存在输出向量

,一个词成为输出词的概率被定义为:

其中

代表第

个节点的左孩子;

​是节点

向量表示(输出向量);

为隐藏层向量:

以上面的图为例,我们来尝试理解这一大串式子的含义

假设我们现在想计算输出是

的概率,那么其实我们可以把这个问题看成从根节点出发到叶子节点的随机游走的概率,对于一个非叶子结点nnn来说,向左走的概率为:

其中

与我们之前在 CBOW 中讨论的相同,也就是说,向左走的概率由非叶子结点的向量

和隐藏向量

决定。同理,我们计算向右走的概率:

得到了向左走和向右走的概率,我们就可以计算从根节点到

​的概率:

这其实也就是下面的式子:

明白了上面式子的含义,也不难看出:

现在我们还是来看看损失函数,为了简单起见,我们考虑 simple CBOW,即一对一模型:

通过上面的这些改进,我们将训练复杂度从

降低到了

。但是与单词数量

相比,我们仍然大量的参数。

Negative Sampling

负采样的思想比分层 softmax 更简单:为了解决每次迭代需要更新的输出向量过多的困难,我们只更新其中的一个样本。

显然,输出单词(即正样本)应该保存在样本中并得到更新,同时我们也需要抽取几个单词作为负样本。这个抽样过程需要一个概率分布,它可以被任意选择。我们称这种分布为噪声分布,并将其表示为

Word2Vec 中,作者认为以下简化的训练目标能够产生高质量的词嵌入,而不是使用一种产生明确的后验多叉分布的负向抽样。

其中

是输出单词(即正样本),

是它的输出向量;

是基于

进行抽样的负样本;

为隐藏层向量:

具体的反向传播过程这里也不再展开了,同样,你可以在参考资料 1中找到完整的计算过程。

PyTorch 实现

EmoryHuang/nlp-tutorial

总结

到这里 Word2Vec 基本就告一段落了,简单做个总结,由于 Word2Vec 会考虑上下文,跟之前的 Embedding 方法相比,效果要更好,通用性也很强,但说到底也是比较老的方法了,与最新的一些方法还是有差距。

下周开始学习 BERT,到时候也再写个总结吧。

参考资料

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2022-06-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 从 Embedding 到 Word2Vec
    • 前言
      • 什么是 Embedding ?
        • One-hot Encoding
          • One-hot 编码的问题
        • Word2Vec
          • Continuous Bag-of-Word Model
          • Skip-Gram Model
          • 小结
        • 优化计算效率
          • Hierarchical Softmax
          • Negative Sampling
        • PyTorch 实现
          • 总结
            • 参考资料
            相关产品与服务
            NLP 服务
            NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档