前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【NLP实战】基于ALBERT的文本相似度计算

【NLP实战】基于ALBERT的文本相似度计算

作者头像
用户1508658
发布2019-11-23 16:16:31
4.3K3
发布2019-11-23 16:16:31
举报
文章被收录于专栏:有三AI有三AI

实战是学习一门技术最好的方式,也是深入了解一门技术唯一的方式。因此,NLP专栏推出了实战专栏,让有兴趣的同学在看文章之余也可以自己动手试一试。

ALBERT是一个比BERT要轻量,效果更好的模型,本篇实践介绍如何用ALBERT计算两个文本的相似度。

作者&编辑 | 小Dream哥

1 ALBERT介绍

ALBERT利用词嵌入参数因式分解和隐藏层间参数共享两种手段,显著减少了模型的参数量的同时,基本没有损失模型的性能。笔者在下面的文章中详细介绍了ALBERT的理论,感兴趣的同学可以戳进去了解:

【NLP】ALBERT:更轻更快的的预训练

albert_tiny模型,能够显著提高模型的推理速度,但是效果依然很棒,这里介绍如何基于albert_tiny模型进行文本相似度计算。

2 BERT4KERAS

本来自己写了个基于tensorflow的ALBERT模型,后来看到苏剑林老师的bert4keras,觉得确实实现简洁,易懂。遂决定分享给大家。

感兴趣的同学可以看看苏剑林老师的网站:

https://spaces.ac.cn/archives/6915

BERT4KERAS是苏老师基于kears实现的几个BERT模型,包括BERT,ALBERT和ROBERTA,基于BERT4KERAS可以快速的使用这些模型,也能够快速的实现对BERT改进的想法。

快速安装:

pip install git+https://www.github.com/bojone/bert4keras.git

3 如何获取ALBERT-zh

从如下的github中能够获取训练好的ALBERT-zh 模型:

https://github.com/brightmart/albert_zh

4 开始实战

ALBERT输出的第一个向量,可以用来表征整体的输入文本,在本篇实战中,利用这个向量来计算文本之间的相似度。

相似度的计算大致可以分为这么几个步骤:

1. 构建模型,加载ALBERT预训练模型。

2. 构建分词器,处理输入。

3. 利用模型,计算输入文本的向量表征。

4. 利用文本向量,计算两个文本之间距离或者相似度。

1)构建模型,加载ALBERT预训练模型

# 加载预训练模型 bert = build_bert_model( config_path=config_path, checkpoint_path=checkpoint_path, with_pool=True, albert=True, return_keras_model=False, )

这里直接调用bert4keras的build_bert_model接口,构建albert模型,并直接加载albert的中文模型的权重。

config_path用来指定模型的配置文件路径;

checkpoint_path用来指定模型权重文件的路径;

albert表示指定用albert模型;

2) 构建分词器,处理输入

#构建分词器

tokenizer = Tokenizer(dict_path)

#格式化输入

token_ids1, segment_ids1 = tokenizer.encode(u'我想去北京') token_ids2, segment_ids2 = tokenizer.encode(u'我想去中国香港') token_ids3, segment_ids3 = tokenizer.encode(u'目前的局势,止暴制乱,刻不容缓')

首先构建分词器这里直接用了bert4keras定义的分词器Tokenizer。

然后用分词器处理输入,获得输入文本在词典中的序号表示及分段信息表示。这里解释下为什么要将输入文本转化成这两个表示:

1.albert模型的输入与bert类似,需要接受词、分段以及位置三个输入,位置信息由模型内的代码处理;

2.将词转化为词在词典中的序号便于后续的词嵌入操作。

3) 利用模型,计算输入文本的向量表征

#计算文本的向量表征,获取albert的第一个位置的输出

sentence_vec1 = model.predict([np.array([token_ids1]), np.array([segment_ids1])])[0] sentence_vec2 = model.predict([np.array([token_ids2]), np.array([segment_ids2])])[0] sentence_vec3 = model.predict([np.array([token_ids3]), np.array([segment_ids3])])[0]

因为我们本次是直接利用预训练模型的知识,直接计算文本的向量表征,因此没有训练过程,直接predict即可获得文本的向量表征。这里,获取albert的第一个位置的输出作为输入文本的向量表征。

4) 计算文本相似度

# 引入两个相似度计算包,欧氏距离和余弦距离

from sklearn.metrics.pairwise import euclidean_distances from sklearn.metrics.pairwise import cosine_similarity #定义相似度计算函数 def similarity_count(vec1, vec2, mode='cos'): if mode == 'eu': return euclidean_distances([vec1,vec2])[0][1] if mode == 'cos': return cosine_similarity([vec1, vec2])[0][1]

#相似度计算

#余弦距离

similarity_count(sentence_vec1, sentence_vec2)

#欧式距离 similarity_count(sentence_vec1, sentence_vec2, mode='eu')

这里引入sklearn中的两个计算欧氏距离和余弦距离的包来计算文本之间的距离。具体过程相对简单,直接看上面的代码吧。

5 结果展示

如上图所示,计算了“我想去北京”和“我想去中国香港”两句话的余弦距离和欧式距离;计算了“我想去北京”和“目前的局势,止暴制乱,刻不容缓”两句话的余弦距离和欧式距离。两句表达意思相近的话,相似度较高,距离较短。但是区隔度不是特别大,所以,在生产中,在一些特别的领域,需要用特别的语料,进行fintune,会有更好的效果。

至此,介绍了如何利用bert4keras搭建albert模型进行文本相似度计算,代码在我们有三AI的github可以下载:https://github.com/longpeng2008/yousan.ai/tree/master/natural_language_processing

找到albert文件夹,执行python3 similarity.py就可以运行了。

总结

ALBERT利用词嵌入参数因式分解和隐藏层间参数共享两种手段,显著减少了模型的参数量的同时,基本没有损失模型的性能,是一个不错的工作。

除了使用它,更关键的是albert模型的实现和理论。我们会在知识星球讨论相关的内容。

知识星球主要有以下内容:

(1) 聊天机器人。考虑到聊天机器人是一个非常复杂的NLP应用场景,几乎涵盖了所有的NLP任务及应用。所以小Dream哥计划以聊天机器人作为切入点,通过介绍聊天机器人的原理和实践,逐步系统的更新到大部分NLP的知识,会包括语义匹配,文本分类,意图识别,语义匹配命名实体识别、对话管理以及分词等。

(2) 知识图谱。知识图谱对于NLP各项任务效果好坏的重要性,就好比基础知识对于一个学生成绩好坏的重要性。他是NLP最重要的基础设施,目前各大公司都在着力打造知识图谱,作为一个NLP工程师,必须要熟悉和了解他。

(3) NLP预训练模型。基于海量数据,进行超大规模网络的无监督预训练。具体的任务再通过少量的样本进行Fine-Tune。这样模式是目前NLP领域最火热的模式,很有可能引领NLP进入一个全新发展高度。你怎么不深入的了解?

转载文章请后台联系

侵权必究

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-11-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 有三AI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档