腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
BERT
来
检测
给定
单词
的
语言
deep-learning
、
nlp
、
classification
、
bert-language-model
我有希伯来语
的
单词
。其中一部分原文是英语,一部分是“希伯来语英语”,这意味着这些
单词
最初来自英语,但却是用希伯来语
单词
书写
的
。例如:“胰岛素”在希伯来语中是"אינסולין“(发音相同)。我有一个简单
的
二进制数据集。X:
单词
(用希伯来语字符书写) y:标签1如果
单词
最初是英文
的
,并且是用希伯来语字符书写
的
,否则为0 我尝试过
使用
分类器,但它
的
输入是全文,而我
的<
浏览 17
提问于2019-06-23
得票数 2
回答已采纳
1
回答
使用
非英语文本
的
预训练模型
的
BERT
句子嵌入
python
、
nlp
、
cosine-similarity
、
bert-language-model
、
sentence-similarity
我正在尝试应用
BERT
句子嵌入
来
从瑞典语文本字符串语料库中查找
给定
瑞典语文本片段
的
相似句子。来自sentence_transformers (SBERT)
的
句子
BERT
似乎是理想
的
选择。他们有各种预先训练
的
模型,并给出了很好
的
例子:()import torch embedder我想知道是否有可能并且可能更准确地应
浏览 8
提问于2020-10-29
得票数 0
1
回答
Access spaCy屏蔽
语言
模型
python
、
nlp
、
spacy
、
language-model
从v2.1开始,spaCy具有
BERT
风格
的
语言
模型(LM)。它预测
单词
向量,而不是
单词
,所以我将在这里互换
使用
“
单词
”和“
单词
向量”。我需要
使用
一个被掩蔽
的
单词
和一个
单词
列表,并根据这些
单词
在被掩蔽
的
位置中出现
的
可能性对这些
单词
进行排序。目前我正在
使用
BERT
(类似于<e
浏览 36
提问于2019-05-25
得票数 1
回答已采纳
2
回答
使用
BERT
词嵌入生成同义词或相似词
nlp
、
word-embedding
我想
使用
BERT
单词
嵌入生成同义词或类似的
单词
。我开始
使用
BERT
做这件事。对于以后
的
软件集成,它必须用Java
语言
完成,所以我选择了easy-
bert
()。看起来我可以通过这种方式获得
单词
嵌入: try(
Bert
bert
=
Bert
.load(new File("com/robrua/nlp/easy-
ber
浏览 4
提问于2020-03-05
得票数 2
1
回答
我想要构建一个下一个
单词
预测器,但我希望它不仅仅是
使用
n-gram。我有什么方法可以做到这一点?
nlp
、
nltk
、
prediction
我一直在努力学习NLTK和NLP,但
使用
n-gram构建下一个
单词
预测器似乎相对简单。我还可以用什么其他方法
来
解决这个问题?
浏览 1
提问于2019-12-08
得票数 0
1
回答
如何从Tensorflow checkpoint (ckpt)文件中预测
BERT
-base中句子中
的
掩蔽词?
python
、
tensorflow
、
deep-learning
、
predict
、
bert-language-model
我有基于
BERT
的
模型检查点,这是我在Tensorflow中从头开始训练
的
。我如何
使用
这些检查点来预测
给定
句子中
的
掩蔽词?例如,假设句子是,"CLS abc pqr MASK xyz SEP“,我想预测掩码位置
的
单词
。 我该怎么做呢?我在网上搜索了很多,但每个人都在
使用
BERT
来
完成特定于任务
的
分类任务。而不是
使用
BERT
来</
浏览 24
提问于2019-09-11
得票数 0
1
回答
一种建议不完整句子中
单词
列表
的
NLP模型
nlp
我在某种程度上读到了一堆关于预测句子中缺失
单词
的
论文。我真正想要
的
是创建一个模型,从一个不完整
的
句子中建议一个
单词
。Suggested Words: soup a) crying c)
浏览 27
提问于2019-06-30
得票数 2
回答已采纳
1
回答
BERT
是否隐含地为
单词
计数建模?
machine-learning
、
nlp
鉴于
BERT
是双向
的
,它是否隐含地模拟了某些
给定
文本中
的
字数统计?我问
的
是在将数据列描述归类为有效或无效
的
情况下。我正在寻找一个基于字数统计
的
模型,并且想知道如果
BERT
是双向
的
,那么是否需要这样做。
浏览 30
提问于2019-06-19
得票数 0
2
回答
从UTF8缓冲区中
检测
单词
边界和每个
单词
的
语言
encoding
、
utf-8
、
internationalization
、
icu
我正在开发一个自定义搜索引擎,我需要将每个
单词
传递给适当
的
特定
语言
词干分析器。 我最近发现了紧凑
语言
检测
器(CLD) ,它为UTF8缓冲区提供了令人印象深刻
的
语言
检测
。虽然CLD对于
检测
给定
缓冲区
的
语言
非常有用,但我需要从缓冲区中提取
单词
边界,并为这些
单词
检测
每个
单词
的
语言
。
浏览 0
提问于2012-05-09
得票数 0
1
回答
伯特能做下一个
单词
预测任务吗?
neural-network
、
deep-learning
、
attention-mechanism
、
transformer
、
bert
由于
BERT
是双向
的
(
使用
双向转换器),是否可以将其用于下一个
单词
预测任务?如果是,有什么需要调整
的
?
浏览 0
提问于2019-02-28
得票数 20
回答已采纳
1
回答
如何预测
给定
句子中
的
掩蔽词
nlp
、
bert-language-model
FitBERT是一个有用
的
软件包,但我对
BERT
开发掩蔽
单词
预测有一点怀疑,如下所示:我
使用
谷歌
的
脚本(如create_pretraining_data.py,run_pretraining.py,extract_features.pyetc..as )
使用
自定义语料库训练了
bert
模型,结果我得到了vocab文件,.tfrecord文件,.json文件和检查点文件。现在如何在你
的
软件包中
使用
这些文件
来
预测
给
浏览 1
提问于2020-10-04
得票数 0
1
回答
用Keras和Python创建NER模型
python
、
keras
、
nlp
我做了一个Keras模型
来
检测
字符串值是Address,Company还是Date。我只
使用
了不同
的
公司名称,不同
的
日期共振峰和不同
的
街道地址进行培训。因此,我
的
数据集中
的
每一行都有1到5个
单词
(有些
单词
可以是数字)。是否可以
使用
该模型
来
检测
字符串(地址、公司或日期)在较大文本中
的
位置?我认为这种模型被称为NER模型(命名实体识别)。 我
浏览 4
提问于2021-03-27
得票数 3
1
回答
伯特从哪里得到它预测
的
代币?
nlp
、
bert
、
language-model
、
tokenization
当
BERT
被用于蒙面
语言
建模时,它掩盖了一个标记,然后尝试预测它。 伯特可以从中选择哪些候选令牌?它只是预测一个整数(就像一个回归问题),然后
使用
这个令牌吗?或者它会对所有可能
的
单词
标记执行softmax吗?对于后者,不是只有大量
的
可能
的
令牌吗?我很难想象
BERT
把它当作一个分类问题,其中# classes =#所有可能
的
单词
标记。伯特从哪里得到它预测
的
标记?
浏览 0
提问于2020-11-16
得票数 2
回答已采纳
1
回答
如何在
给定
上下文
的
句子中获取特定标记(
单词
)
的
概率
nlp
、
pytorch
、
huggingface-transformers
、
bert-language-model
我试着用NLP
来
计算句子中
单词
的
概率或任何类型
的
分数。我
使用
Huggingface库对GPT2模型进行了尝试,但由于该模型
的
单向性质,在上下文中似乎无法预测,因此无法获得满意
的
结果。所以我想知道是否有一种方法,用
BERT
计算上面所说
的
,因为它是双向
的
。希望我能收到这方面的想法或解决方案。任何帮助都
浏览 1
提问于2020-05-14
得票数 5
3
回答
spacy和训练数据中
的
有案例
的
BERT
模型与无案例
的
BERT
模型
python
、
spacy
、
bert-language-model
我想
使用
spacy
的
预训练
的
BERT
模型进行文本分类,但我对cased/uncased模型有点困惑。我在某处读到过,只有在有可能对任务有帮助
的
情况下,才应该
使用
cased模型。在我
的
特定情况下:我正在处理德语文本。在德语中,所有名词都以大写字母开头。所以,我认为(如果我错了,请纠正我
的
错误),这正是必须
使用
cased模型
的
情况。(在spacy中,也没有适用于德语
的
uncased模型)。 但
浏览 0
提问于2020-05-20
得票数 8
回答已采纳
7
回答
为什么译码器不是伯特架构
的
一部分?
nlp
、
bert
、
machine-translation
、
attention-mechanism
我看不出伯特是如何在不
使用
解码器
的
情况下做出预测
的
,这是之前所有模型
的
一部分,包括变压器和标准RNN。如何在不
使用
解码器
的
情况下在
BERT
体系结构中进行输出预测?怎么才能完全消除解码器呢?如果
BERT
只编码,我可以
使用
什么库/工具从嵌入解码?
浏览 0
提问于2019-12-21
得票数 22
回答已采纳
1
回答
Bert
单词
嵌入
的
微调
python
、
pytorch
、
word-embedding
、
bert-language-model
、
language-model
我想加载一个预训练
的
Bert
模型,并
使用
自定义数据集对其进行微调,特别是模型
的
单词
嵌入。任务是
使用
所选
单词
的
单词
嵌入进行进一步分析。值得一提
的
是,数据集由tweet组成,没有标签。因此,我
使用
了BertForMaskedLM模型。 此任务是否可以
使用
输入ids (标记化
的
tweet)作为标签?我没有标签。只有一些推文是随机排列
的
。从这一点开始,我
浏览 56
提问于2020-10-01
得票数 0
2
回答
伯特架构和香草变压器架构有什么不同?
nlp
、
bert
、
transformer
、
encoder
我正在对总结任务做一些研究,发现
BERT
是从变压器模型中派生出来
的
。在我读过
的
关于伯特
的
每一个博客中,他们都专注于解释什么是双向编码器,所以,我认为这就是伯特不同于香草变压器模型
的
原因。但据我所知,转换器同时读取整个
单词
序列,因此它也被认为是双向
的
。有人能指出我错过了什么吗?
浏览 0
提问于2020-11-30
得票数 3
回答已采纳
1
回答
为什么
BERT
模型必须保持10%
的
掩码标记不变?
deep-learning
、
nlp
、
bert-language-model
我正在读
BERT
模型论文。在预训练
BERT
模型
的
掩蔽
语言
模型任务中,本文表示模型将随机选择15%
的
令牌。在选择
的
标记( Ti )中,80%将被替换为掩码标记,10%
的
Ti保持不变,10%
的
Ti将替换为另一个
单词
。我认为模型只需要替换为掩码或其他
单词
就足够了。为什么模型必须随机选择一个
单词
并保持不变?预训练过程是只预测掩码令牌,还是预测15%
的
整个随机令牌?
浏览 151
提问于2020-09-23
得票数 2
回答已采纳
4
回答
伯特:可以把它用于主题建模吗?
topic-model
、
lda
、
bert
我很难理解
BERT
的
全部功能是什么:可以对文本进行主题建模,就像我们可以用LDA实现
的
那样?
浏览 0
提问于2019-06-05
得票数 7
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
完胜 BERT,谷歌优秀 NLP 预训练模型开源
用于自然语言处理的BERT-双向Transformers的直观解释
谷歌借助ELECTRA实现更高效的NLP模型预训练
微软亚研提出VL-BERT:通用的视觉-语言预训练模型
使用卷积神经网络来检测卫星图像的特征
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券