腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9993)
视频
沙龙
1
回答
我
想
使用
BERT
查找
句子
中
的
单个
单词
嵌入
的
单词
。
有谁
知道
怎么做
吗
?
python
、
nlp
、
bert-language-model
例如,在
句子
中
:“地球围绕太阳旋转,并围绕它自己
的
轴旋转”,
我
想将它
嵌入
BERT
单词
嵌入
,并在这个特定
的
句子
中找到“旋转”
的
嵌入
。
怎么做
?
浏览 32
提问于2021-05-11
得票数 0
2
回答
伯特字
嵌入
中
的
元素是什么?
word-embeddings
、
nlp
、
bert
、
language-model
据我所知,伯特是一个字
嵌入
,可以微调或直接
使用
。这对
嵌入
词本身意味着什么?每个
单词
标记还有一个向量
吗
?如果是,如何考虑上下文?如果不是,
嵌入
的
格式是什么
浏览 0
提问于2020-02-11
得票数 3
回答已采纳
1
回答
从段落或文档网
中
嵌入
基于变压器
的
模型(如Doc2Vec)
nlp
、
bert
、
transformer
、
embeddings
、
doc2vec
我
有一组包含不同长度序列
的
数据。平均序列长度为600。,'Walk']As变压器是NLP任务
的
最先进
的
方法.
我
在想,如果变压器模型可以用于类似的任务。在搜索这
浏览 0
提问于2021-04-22
得票数 1
2
回答
如何用预先训练好
的
BERT
将
单词
表示为
嵌入
?
nlp
、
unsupervised-learning
、
word-embeddings
、
bert
、
representation
我
没有足够
的
数据(也就是说,
我
没有足够
的
文本)--在
我
的
字典里只有大约4k个
单词
。
我
需要比较给定
的
单词
,然后
我
需要将它表示为
嵌入
。 在表示
单词
之后,
我
要对其进行聚类,找到相似的向量(即
单词
)。甚至可能会对给定
的
类进行分类(在那里没有监督
的
分类-因为
我
没有标记
的</em
浏览 0
提问于2021-04-13
得票数 0
1
回答
Bert
单词
嵌入
的
微调
python
、
pytorch
、
word-embedding
、
bert-language-model
、
language-model
我
想
加载一个预训练
的
Bert
模型,并
使用
自定义数据集对其进行微调,特别是模型
的
单词
嵌入
。任务是
使用
所选
单词
的
单词
嵌入
进行进一步分析。值得一提
的
是,数据集由tweet组成,没有标签。因此,
我
使用
了BertForMaskedLM模型。 此任务是否可以
使用
输入ids (标记化
的
tw
浏览 56
提问于2020-10-01
得票数 0
1
回答
句子
嵌入
BERT
embedding
、
sentence
、
bert-language-model
我
需要一个信息。
我
使用
了这个:来提取特征,但我得到了
单词
嵌入
。 如果
我
想在
我
的
数据上
使用
BERT
训练来
嵌入
句子
,
我
该
怎么做
?示例:
句子
"I want running“--> result 1,768个数组
嵌入
谢谢。
浏览 10
提问于2020-05-14
得票数 1
2
回答
使用
BERT
词
嵌入
生成同义词或相似词
nlp
、
word-embedding
我
想
使用
BERT
单词
嵌入
生成同义词或类似的
单词
。
我
开始
使用
BERT
做这件事。对于以后
的
软件集成,它必须用Java语言完成,所以我选择了easy-
bert
()。看起来
我
可以通过这种方式获得
单词
嵌入
: try(
Bert
bert
=
Bert
.load(new File(&qu
浏览 4
提问于2020-03-05
得票数 2
1
回答
训练SVM分类器(
单词
嵌入
与
句子
嵌入
)
svm
、
word2vec
、
bert-language-model
、
word-embedding
、
elmo
我
想
尝试不同
的
嵌入
方式,比如Word2Vec、ELMo和
BERT
,但我有点困惑,不
知道
是
使用
单词
嵌入
还是
句子
嵌入
,以及为什么。
我
使用
嵌入
作为SVM分类器
的
特征输入。 谢谢。
浏览 13
提问于2021-07-02
得票数 1
回答已采纳
5
回答
如何
使用
BERT
对相似
句子
进行聚类
python
、
nlp
、
artificial-intelligence
、
word-embedding
、
bert-language-model
对于ElMo,FastText和Word2Vec,
我
平均
句子
中
的
单词
嵌入
,并
使用
HDBSCAN/KMeans聚类来对相似的
句子
进行分组。在这篇简短
的
文章
中
可以看到一个很好
的
实现示例:http://ai.intelligentonlinetools.com/ml/text-clustering-word-embedding-machine-learni
浏览 367
提问于2019-04-11
得票数 23
回答已采纳
1
回答
如何存储词向量
嵌入
?
python-3.x
、
keras
、
nlp
、
word-embedding
、
bert-language-model
我
正在
使用
BERT
单词
嵌入
3个标签
的
句子
分类任务。
我
正在
使用
谷歌Colab进行编码。
我
的
问题是,由于我每次重启内核时都必须执行
嵌入
部分,有没有办法在生成后保存这些
单词
嵌入
?因为,生成这些
嵌入
需要花费大量
的
时间。
我
用来生成
BERT
单词
嵌入
<e
浏览 33
提问于2020-07-03
得票数 3
回答已采纳
1
回答
如何计算视频字幕之间
的
语义相似度?
python
、
nlp
、
word-embeddings
、
tokenization
、
semantic-similarity
我
打算通过将标题与多个参考句进行比较来计算标题
的
准确性。A person is trying to use a pole to push off his bike ride but ends up falling down.
我
想
计算出每对之间
的
相似性分数。也就是说,(R1,C), (R2, C) and (R3, C) 什么是最好
的
浏览 0
提问于2020-05-04
得票数 0
1
回答
用于在chrome扩展中分析文本
的
Javascript
javascript
、
google-chrome
、
tensorflow
、
google-chrome-extension
、
summary
大家好,
我
被困在这件事上了,
我
知道
希望有人能帮上忙很容易。如何读取输入文本
中
的
每个
单词
并为每个
单词
赋值?输出必须包含所有具有最高中值
的
句子
。之后,
我
需要将这些
句子
与一些
句子
进行比较,看看它们有多相似。 如果你需要
我
说
的
更清楚,请告诉
我
,任何形式
的
帮助都是非常感谢
的
!
浏览 0
提问于2020-08-26
得票数 0
4
回答
是否可以
使用
Google
BERT
来计算两个文本文档之间
的
相似度?
python
、
text
、
scikit-learn
、
nlp
、
word-embedding
是否可以
使用
Google
BERT
来计算两个文本文档之间
的
相似度?据我所知,
BERT
的
输入应该是有限大小
的
句子
。一些作品
使用
BERT
来计算
句子
的
相似度,例如: 是否有
BERT
done
的
实现,以便将其用于大型文档而不是
句子
作为输入(具有数千个
单词
的
文档)?
浏览 1
提问于2019-09-11
得票数 12
1
回答
如何从Tensorflow checkpoint (ckpt)文件
中
预测
BERT
-base
中
句子
中
的
掩蔽词?
python
、
tensorflow
、
deep-learning
、
predict
、
bert-language-model
我
有基于
BERT
的
模型检查点,这是
我
在Tensorflow
中
从头开始训练
的
。
我
如何
使用
这些检查点来预测给定
句子
中
的
掩蔽词?例如,假设
句子
是,"CLS abc pqr MASK xyz SEP“,
我
想
预测掩码位置
的
单词
。
我
该
怎么做
呢?
我
在网上搜索了
浏览 24
提问于2019-09-11
得票数 0
1
回答
将段落拆分成有意义
的
子段落
nlp
、
topic-modeling
、
boundary
通常,一个段落包含多个小节,每个小节都有一定
的
含义。 在自然语言处理
中
,如何将段落拆分成有意义
的
小节,或者换句话说,
我
想要检测小节之间
的
边界
浏览 3
提问于2020-06-03
得票数 0
1
回答
使用
嵌入
查找
文档之间
的
相似性
keras
、
nlp
、
pytorch
、
embeddings
、
doc2vec
我
需要找到两个文本文档之间
的
余弦相似性。
我
需要反映
单词
顺序
的
嵌入
,所以我不打算
使用
用
单词
包或TF/国防军构建
的
文档向量。理想情况下,
我
应该
使用
预先培训过
的
文档
嵌入
,比如来自Gensim
的
doc2vec。如何将新文档映射到预先培训过
的
嵌入
?否则,在Keras/Tensorflow或Py火炬中生
浏览 0
提问于2020-03-10
得票数 1
回答已采纳
1
回答
如何获取RoBERTa word
嵌入
?
encoding
、
nlp
、
word-embedding
给定一个
句子
“RoBERTa是
BERT
的
一个高度优化
的
版本。”,
我
需要用RoBERTa获得这个
句子
中
每个
单词
的
嵌入
。
我
试着在网上查看示例代码,但没有找到明确
的
答案。
我
的
观点如下:all_layers = roberta.extract_features(tokens, retu
浏览 3
提问于2020-03-24
得票数 4
2
回答
语境
嵌入
和词
嵌入
有什么区别?
machine-learning
、
deep-learning
、
artificial-intelligence
我
试图理解深层次学习模式
的
嵌入
概念。然而,最近
我
看到了大量
的
博客文章,上面写着ELMo、
BERT
等关于上下文
嵌入
的
文章。
单词
嵌入
与上下文
嵌入
有什么不同?
浏览 0
提问于2020-06-08
得票数 12
回答已采纳
3
回答
在
bert
层
中
,池输出和序列输出有什么不同?
python-3.x
、
tensorflow
、
neural-network
、
text-classification
、
bert-language-model
我
读到了关于
Bert
的
文章,
我
想做文本分类和它
的
单词
嵌入
。
我
遇到了这一行代码:然后:out = Dense(1, activation='sigmoid
浏览 3
提问于2020-08-12
得票数 1
回答已采纳
1
回答
对ELMO,
BERT
,Word2Vec
的
怀疑
machine-learning
、
nlp
、
lstm
、
word-embeddings
、
bert
我
在Quora上读到了一个答案,其中一位NLP从业者说,
使用
ELMO和
BERT
嵌入
作为LSTM或某些RNN
的
输入将违背ELMo和
BERT
的
目的。
我
不同意上述说法。同样,常识指出,如果我们将ELMO或
BERT
词
嵌入
到LSTM,它应该输出比word2vec更多
的
上下文丰富
的
单词
。
我
说得对吧?
我
知道
,一旦获得了上下文
浏览 0
提问于2023-04-02
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何通过几行 Python 代码,使用BERT进行词嵌入?
用于自然语言处理的BERT-双向Transformers的直观解释
谷歌搜索近5年来最大变化,使用BERT算法改进10%搜索结果
2018年AI和ML技术概述和2019年趋势
【LLMs-BERT-2018】BERT模型-开创精彩的大规模预训练语言模型热潮(下)
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券