前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >TensoFlow 实战 3层网络求解嵌入词向量,附代码详解

TensoFlow 实战 3层网络求解嵌入词向量,附代码详解

作者头像
double
发布2018-07-25 18:14:17
5980
发布2018-07-25 18:14:17
举报
文章被收录于专栏:算法channel算法channel

已经介绍了Word2Vec中的Skip-Gram模型的基本原理,以及训练过程的3个策略,详细请参考:

斯坦福大学NLP-cs224课程笔记2:词向量模型

Word2vec之Skip-Gram训练网络的3种技术

接下来开始动手用 TensorFlow 实现自己的 Word2Vec 模型,本篇文章将利用 TensorFlow 来完成 Skip-Gram 模型。还不是很了解Skip-Gram思想的小伙伴可以参考以上推送文章。

本篇 TensorFlow 实战参考 天雨粟 的实现思路,实战代码的主要目的是加深对Skip-Gram 模型中一些思想和训练技巧的理解,选用了满足自己训练目的的语料规模,对语料质量和算法细节做基本的约束要求,尽可能的降低训练成本。同时,运用 TensorFlow 框架建立网络结构,求解嵌入的词向量。

实战工具

Skip-Gram 模型的训练所使用的语言,库,及工具如下所示:

  • 语言:Python 3
  • 包:TensorFlow包,Numpy包
  • 编辑器:Pycharm
  • 线上GPU:floyd (https://www.floydhub.com/),这是一个非常不错的在线训练深度学习神经网络的平台
  • 数据集:维基百科英文文章预料,参考 天雨粟 给出的预料,预料字节数为90+M.

数据预处理

首先,导入用到的包,如下:

代码语言:javascript
复制
import random
import time

加载训练网络所用的语料,如下:

代码语言:javascript
复制
with  open('data/text8') as f:

数据预处理部分主要做的工作包括:

  1. 替换文本中特殊符号,比如:逗号,分号,感叹号等
  2. 对文本分词
  3. 去除低频词,减少噪音
  4. 构建语料
  5. 单词映射表

替换文本中的特殊字符:

代码语言:javascript
复制
text = text.replace('.', ' <PER> ').replace(',', ' <COM> ').replace('"', ' <QUO> ').\

根据空格分词

代码语言:javascript
复制
words = self.text.split()

剔除低频词

代码语言:javascript
复制
word_counts = Counter(words)

去重后的词汇表

代码语言:javascript
复制
vocab = set(words)

在词汇表中建立映射关系

代码语言:javascript
复制
vocab_to_int = {w: c for c, w in enumerate(vocab)}

去除低频率的单词,同时去除高频出现的停用词,例如“the”, “of”以及“for”这类单词进行剔除。剔除这些单词以后能够加快我们的训练过程,同时减少训练过程中的噪音。采用以下公式:

其中 t 是一个阈值参数,一般为 1e-3 至 1e-5 fwi) 是单词 wi 在整个数据集中的出现频次

P(wi) 是单词被删除的概率

代码语言:javascript
复制
# 在词汇表中找到单词的索引list

输入样本

Skip-Gram模型的输入是基于中心词的上下文窗依次配对,通过一定批次大小构建输入样本。

对于一个给定词,离它越近的词可能与它越相关,离它越远的词越不相关,这里我们设置窗口大小为 5,对于每个训练单词,我们还会在 [1:5] 之间随机生成一个整数 R,用 R 作为我们最终选择 output word 的窗口大小。这里之所以多加了一步随机数的窗口重新选择步骤,是为了能够让模型更聚焦于当前 input word 的邻近词。

代码语言:javascript
复制
def generate_batches(self,train_words_index):

三层网络

该部分主要包括:

  • 输入层
  • Embedding,
  • 嵌入矩阵的矩阵形状为 vocab_size×hidden_units_size ,TensorFlow 中的 tf.nn.embedding_lookup 函数可以实现 lookup 的计算方式
  • Negative Sampling,负采样主要是为了解决梯度下降计算速度慢的问题,详细的实现细节请参考 Word2vec之Skip-Gram训练网络的3种技术,TensorFlow中的 tf.nn.sampled_softmax_loss 会在 softmax 层上进行采样计算损失,实现类似于 negative sampling 的功能。

详细实现代码如下:

代码语言:javascript
复制
def build_tf_nn(self,train_words_index, int_to_vocab):

验证

抽取几个词,找出各自最相近的 topk 个单词。首先把测试样本加入到图中,

代码语言:javascript
复制
with train_graph.as_default():

接下来,运行以上默认图:

代码语言:javascript
复制

每 1000 个时步打印一次,从最后的训练结果来看,模型还是学到了一些常见词的语义,比如 one 等计数词以及 gold 之类的金属词,animals 中的相似词也相对准确,列表如下:

为了能够更全面地观察我们训练结果,我们采用 sklearn 中的 TSNE 来对高维词向量进行可视化。

代码语言:javascript
复制

以上便是在 TensorFlow 中完整源码实现Word2vec之Skip-Gram模型的详细过程代码。

相关链接

TensorFlow笔记|为什么会有它?

TensorFlow笔记|Get Started

Tensorflow笔记|tensorflow做线性回

Tensorflow|Tensor, 与Numpy比较,Constant

Tensorflow|通过Variable及assign()感悟一点设计之道

Tensorflow|Session和InteractiveSession

点击以下标题查看相关内容:

  • 深度学习和自然语言处理:介绍
  • 斯坦福大学NLP-cs224课程笔记2:词向量
  • 一文了解Word2vec之Skip-Gram训练网络的3种技术
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-04-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 程序员郭震zhenguo 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 实战工具
  • 数据预处理
  • 输入样本
  • 三层网络
  • 验证
  • 每 1000 个时步打印一次,从最后的训练结果来看,模型还是学到了一些常见词的语义,比如 one 等计数词以及 gold 之类的金属词,animals 中的相似词也相对准确,列表如下:
  • 相关链接
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档