首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

文献阅读:Sentence-BERT:Sentence Embeddings using Siamese BERT-Networks

文献阅读:Sentence-BERT:Sentence Embeddings using Siamese BERT-Networks 1. 文章简介 2. 主要方法介绍 3. 主要实验内容 1....众所周知,bert之后的一种标准范式就是用[CLS]的embedding来进行后续sentence level任务(例如分类问题)的输入进行finetune。...因此,一种直接的想法就是,如果我直接用[CLS]的embedding作为sentence的embedding是否能够得到一个比较好的效果,如果不行的话,那么我是否可以通过其他的一些方式来获得一个较好的sentence...其得出的结论也挺简单的,就是在bert的基础上在下游任务中进行finetune,然后把sentence embedding的部分进行截取作为sentence的embedding即可。...得到结果如下表所示: 可以看到,整体上来说,要从bert这边获得sentence的embedding,pooling的方式还是比直接拿cls效果更好,而且sentence embedding在训练过程中的使用方式上面

37110
您找到你想要的搜索结果了吗?
是的
没有找到

Sentence-Transformer的使用及fine-tune教程

简述 Sentence-Transformer官方文档写的很详细,里面有各种你可能会用到的示例代码,并且都有比较详细的说明,如果有什么问题,应该先去看官方文档 本文主要从两种情况来介绍如何使用Sentence-Transformer...,一种是直接使用,另一种是在自己的数据集上fine-tune 首先,无论何种场景,您都应该先安装以下两个库 pip install -U sentence-transformers pip install...', 'A cheetah is running behind its prey.'] sentence_embeddings = model.encode(sentences) for...sentence, embedding in zip(sentences, sentence_embeddings): print("Sentence:", sentence) print...', 'My second sentence'], label=0.8), InputExample(texts=['Another pair', 'Unrelated sentence'], label

8.6K10

文献阅读:SNCSE: Contrastive Learning for Unsupervised Sentence Embedding with Soft Negative Samples

文献阅读:SNCSE: Contrastive Learning for Unsupervised Sentence Embedding with Soft Negative Samples 1....内容简介 这篇文章算是SimCSE的一个进阶版本吧,关于SimCSE的介绍之前我已经写了一篇小博客(文献阅读:SimCSE:Simple Contrastive Learning of Sentence...文章关注的问题依然是nlp当中sentence的embedding表征学习方面的工作,和SimCSE一样,它同样采用了对比学习的方式来优化效果,不过对于embedding的获取方法,与SimCSE的直接取用...他们的语义是完全相反的,但是往往在NLP模型当中获得的两个句子的sentence embedding表达确实非常相似的,因为他们的token组成还有文本描述都是非常接近的,因此就会被模型混淆。...1. embedding的获取 首先,关于sentence的embedding获取方式,如前所述,与传统的bert通过[CLS]token来获取sentence embedding的方式略有不同,文中借鉴了

63820
领券