腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
STS基准
数据
集中
的
语义
相似
度
得分是
如何
计算
的
?
python
、
nlp
、
cosine-similarity
、
bert-language-model
这是GitHub存储库:我正在尝试完成
的
任务:我有另一个自定义
数据
集
,其中也有成对
的
相似
和不
相似
句子
。(只有200对) 我想组合这两个
数据
集
(STS &我
的
自定义<em
浏览 31
提问于2020-02-23
得票数 0
1
回答
如何
使用
BERT
模型
来
预测
与
没有
标签
的
数据
集
的
句子
语义
相似
度
?
python
、
tensorflow
、
keras
、
bert-language-model
我是一个
使用
BERT
模型
的
初学者。我正在关注来自Keras网站https://keras.io/examples/nlp/semantic_similarity_with_
bert
/#:~:text=Introduction,sentence%20semantic%20similarity%20with%20Transformers
的
教程。但他们在示例中
使用
的
数据
集<
浏览 51
提问于2021-04-06
得票数 0
1
回答
句子
转换器
如何
预测
新实例
python
、
nlp
、
huggingface-transformers
、
sentence
、
sentence-similarity
我正在探索
句子
转换器,并偶然发现了这个。它展示了
如何
对我们
的
自定义
数据
进行培训。但我不知道该怎么
预测
。如果有两个新
句子
,如1)这是第三个例子,2)这是第三个例子。我怎么能
预测
到这些
句子
有多
相似
呢?DataLoader(train_examples, shuffle=True, batch_size=16)保存了
与
旧代码相
浏览 1
提问于2022-01-04
得票数 2
1
回答
计算给定语音记录中
的
语义
连贯性
python
、
cosine-similarity
、
word-embedding
、
lsa
、
bert-language-model
我正在尝试计算给定段落/文本
的
语义
连贯性,即。如果有人在谈论某件事或话题时偏离了轨道--更具体地说是描述一张图片(图片可能有很多子细节)。文字记录1:我喜欢运动。世界上有这么多体育迷。有一种致命
的
病毒正在世界各地传播。 文本1
的
语义
连贯性应该是高
的
,而文本2
的
语义
连贯性应该是低
的
。我正在
使用
BERT
(
bert
-as-service)为
句子
生成
浏览 9
提问于2020-03-04
得票数 0
1
回答
如何
抓取
语义
相似
的
句子
python
、
nlp
、
data-science
、
sentence-similarity
、
semantic-analysis
我有一个小
的
文本
数据
集
,并想从网络上抓取
相似
的
句子
。
使用
Bert
相关
模型
、doc2vec和空间
相似
度
的
sentence_transformers软件包进行
相似
性度量。我将阈值设置为85%,但
相似
度
得分高于阈值
的
句子
并不真正相关。
如何
用python从web上抓取
相似
的
句
浏览 33
提问于2020-06-06
得票数 1
1
回答
如何
改进两个
相似
文档之间
的
文档分类
machine-learning
、
classification
、
nlp
我得到一个网页
的
网址,从中提取所有的文本,然后
使用
我训练
的
模型
,实际上是基于LSTM
的
,我分类它是否
与
房地产有关。在这里,有房地产属性
的
页面意味着页面应该只讨论一个属性,而不是更多
的
属性。我
的
模型
可以获得以下类型
的
输入
数据
之一:包含符合特定标准
的
房
浏览 0
提问于2021-12-20
得票数 0
3
回答
如何
使用
BERT
中
的
嵌入比较
句子
相似
度
python
、
vector
、
nlp
、
cosine-similarity
、
huggingface-transformers
我正在
使用
HuggingFace Transformers包访问预先训练好
的
模型
。因为我
的
用例需要英语和阿拉伯语
的
功能,所以我
使用
预训练
模型
。我需要能够
使用
诸如余弦
相似
性之类
的
东西来比较
句子
的
相似
性。要
使用
它,我首先需要获得每个
句子
的
嵌入向量,然后才能计算余弦
相似
度
。 首先,
浏览 2
提问于2020-03-03
得票数 21
回答已采纳
1
回答
相似
性评分在gensim中意味着什么?
python
、
text
、
gensim
、
sentence-similarity
我
使用
Gensim库
来
查找
句子
与
段落集合、文本
数据
集
之间
的
相似
之处。分别
使用
了余弦
相似
度
、软余弦
相似
度
和移动测度。Gensim返回一个项目列表,包括、docid、和
相似
性评分。对于余弦
相似
度
和软余弦
相似
度
,我猜
相似
度
是向量之间
的</
浏览 0
提问于2021-09-20
得票数 0
回答已采纳
1
回答
如何
将
bert
的
嵌入向量与其他特征结合起来?
python
、
python-3.x
、
bert-language-model
、
word-embedding
我正在
使用
3个
标签
(0,1,2 = neg,pos,neu)进行分类任务。
数据
是
句子
。因此,为了生成
句子
的
向量/嵌入,我
使用
一个
Bert
编码器
来
获取每个
句子
的
嵌入,然后
使用
一个简单
的
knn进行
预测
。我
的
数据
是这样
的
:每个
句子
都有一个
标签
和其他分类<
浏览 1
提问于2021-08-17
得票数 2
回答已采纳
2
回答
如何
利用深度学习找到
句子
相似
度
?
python
、
nlp
我试图通过单词匹配找到
句子
相似
度
,然后应用余弦
相似
度
评分。尝试了CBOW/Skip嵌入方法,但
没有
解决问题。一个算法
如何
找到
句子
的
语义
意义并对其进行评分。我
的
方法: 用Gen
浏览 1
提问于2020-03-09
得票数 2
1
回答
用于
语义
相似
度
的
BERT
嵌入
python
、
tensorflow
、
keras
、
bert-language-model
1)我不认为我从CLS令牌中获得
的
嵌入
与
youtube视频中显示
的
内容类似。我试着进行
语义
相似
,结果很糟糕。有人能确认我得到
的
嵌入是否
与
视频35.27标记中提到
的
嵌入
相似
吗?2)如果上述问题
的
答案是“不
相似
的”,那么
如何
使用
我编写
的
代码获得我正在寻找
的
嵌入呢? 3)如果第一个问题
的
答案是“它们是
相似</
浏览 1
提问于2020-04-02
得票数 9
2
回答
伯特精调
语义
相似
性
nlp
、
cosine-similarity
、
pearson-correlation
、
sentence-similarity
我想应用微调伯特来计算
句子
之间
的
语义
相似
性。我搜索了很多网站,但我几乎找不到下游
的
这件事。据我所知,有很多计算
相似
度
的
方法,包括余弦
相似
度
、pearson相关性、曼
浏览 5
提问于2019-12-04
得票数 3
回答已采纳
1
回答
基于句法正确性和
语义
一致性
的
BERT
模型
评价方法
nlp
、
bert
、
language-model
“吠”一词对应于缺少
的
单词。
浏览 0
提问于2019-11-14
得票数 1
1
回答
用于比较短语和
句子
的
相关含义
的
算法
python
、
machine-learning
、
compare
、
match
、
semantics
我是机器学习
的
新手,如果你能给我一个提示,让我知道
如何
使用
正确/简单
的
工具来比较由不同单词组成但具有一个含义
的
任意两个短语
的
算法,我将非常感激。"Solving mac computers operating system issues" "Fixing apple OS X errors" 任务是分析大量由不同单词组成
的
短语和
句子
,并揭示那些具有一个或彼此相近含义
的</e
浏览 16
提问于2020-03-10
得票数 1
1
回答
具有列车、开发、测试、
预测
模式
的
BERT
classification
、
bert-language-model
我正在和
BERT
一起做一个文本分类任务。我基本上是在
使用
。这段代码
使用
train.tsv和dev.tsv (有
标签
)
来
微调
BERT
,
使用
test.tsv (
没有
标签
)
来
进行
预测
。但是,我需要
使用
train-dev-test拆分来训练
模型
(train set),计算超参数和损失函数(dev set),并评估性能(test set)。
与
常规
的
浏览 3
提问于2020-03-12
得票数 0
1
回答
为什么RNN文本生成
模型
将单词
预测
作为分类任务处理?
rnn
、
word-embeddings
、
bert
、
text-generation
在我发现
的
关于基于单词
的
RNN
模型
(LSTM或GRU)
的
文本生成
的
许多来源中,对
模型
进行了训练,以执行跨词汇表
的
分类任务(例如,
使用
分类交叉熵损失)
来
预测
下一个单词。可以为启动器找到一个示例这里。在一个庞大
的
词汇表上,这在计算上非常昂贵。 在我看来,首先
使用
像伯特这样
的
预先训练过
的
模型
,为训练/测试
数据</em
浏览 0
提问于2022-07-10
得票数 1
回答已采纳
1
回答
如何
为领域特定
的
表征学习任务训练
bert
模型
?
python
、
embedding
、
bert-language-model
、
sentence-transformers
我正在尝试为一些特定类型
的
文本生成良好
的
句子
嵌入,
使用
句子
转换
模型
测试
相似
度
,而
使用
kmeans进行聚类并不能给出好
的
结果。有什么需要改进
的
想法吗?我正在考虑在我
的
数据
集
上训练任何
句子
转换器
模型
(它们只是
句子
,但
没有
任何
标签
)。
如何
特别针对
浏览 5
提问于2020-12-08
得票数 0
4
回答
如何
在未标记
的
数据
上微调
BERT
?
nlp
、
pytorch
、
huggingface-transformers
、
bert-language-model
我想在特定
的
域上对
BERT
进行微调。我在文本文件中有该域
的
文本。我
如何
使用
这些
来
微调
BERT
?我目前正在寻找。 我
的
主要目标是
使用
BERT
实现
句子
嵌入。
浏览 3
提问于2020-05-23
得票数 6
1
回答
如何
从Tensorflow checkpoint (ckpt)文件中
预测
BERT
-base中
句子
中
的
掩蔽词?
python
、
tensorflow
、
deep-learning
、
predict
、
bert-language-model
我有基于
BERT
的
模型
检查点,这是我在Tensorflow中从头开始训练
的
。我
如何
使用
这些检查点来
预测
给定
句子
中
的
掩蔽词?例如,假设
句子
是,"CLS abc pqr MASK xyz SEP“,我想
预测
掩码位置
的
单词。 我该怎么做呢?我在网上搜索了很多,但每个人都在
使用
BERT
来
完成特定于任务
的
分类任
浏览 24
提问于2019-09-11
得票数 0
1
回答
我能把伯特调成不同/不相关
的
任务吗?
bert
、
transformer
、
language-model
、
tokenization
在最初
的
伯特文件第3节(arXiv:1810.04805)中提到:我不知道我是否正确地理解了“不同”这个词
的
含义。不同
的
意思是不同
的
数据
集
还是不同
的
预测
任务? 例如,如果我们用一个大
数据
集
对伯特进行“
句子
分类-任务”
的
预培训。那么,我应该在一个更小
的
浏览 0
提问于2020-10-30
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
基于深度学习的短文本相似度学习与行业测评
ALBERT:更轻更快的NLP预训练模型
内存用量1/20,速度加快80倍,QQ提全新BERT蒸馏框架,未来将开源
百分点苏海波:深度迁移学习在NLP中的应用及实践
一文讲透预训练模型的改进训练算法 ,轻松达到State of the Art
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券