腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
BERT
NLP
模型
的
输入
形式
是什么
?
deep-learning
、
nlp
在阅读了
BERT
论文(https://arxiv.org/abs/1810.04805)之后,我仍然对
输入
(单词)取什么感到有点困惑。他们指的是一篇论文,本质上是对单词进行标记化,但没有明确地展示它
是什么
样子
的
。 谢谢你
的
澄清。 汤姆
浏览 26
提问于2019-02-05
得票数 2
1
回答
用Tensorflow vs PyTorch实现
BERT
tensorflow
、
pytorch
、
bert
BERT
是Google开发
的
NLP
模型
。最初
的
BERT
模型
是由TensorFlow团队建立
的
,也有一个使用PyTorch构建
的
BERT
版本。这两种模式
的
主要区别
是什么
?
浏览 0
提问于2020-05-07
得票数 1
回答已采纳
3
回答
使用训练好
的
BERT
模型
和数据预处理
nlp
、
pytorch
、
bert-language-model
当使用来自pytorch
的
预训练
BERT
嵌入(然后进行微调)时,是否应该像在任何标准
NLP
任务中一样对
输入
到
模型
中
的
文本数据进行预处理?
浏览 3
提问于2020-09-20
得票数 4
2
回答
在poolingLayer -
nlp
中加载
BERT
嵌入
模型
时出现"Param
nlp
不存在“错误
nlp
、
johnsnowlabs-spark-nlp
我
的
NLP
管道使用来自johnsnowlabs
的
预训练
的
BERT
嵌入
模型
"
bert
_base_uncased“。但是当加载这个下载
的
模型
时,我得到了以下异常。at org.apache.spark.ml.util.DefaultParamsReader.load(ReadWrite.scala:497) at com.johnsnowlabs.
nlp
.FeaturesReader.load(Para
浏览 32
提问于2021-04-02
得票数 1
回答已采纳
1
回答
tensorflow.org
的
tensorflow示例中
的
官方模块
python
、
tensorflow
、
nlp
、
bert-toolkit
我一直在关注tensorflow教程https://www.tensorflow.org/official_models/fine_tuning_
bert
在第一个代码片段中,我看到了很多来自官方模块
的
导入official.
nlp
.
bert
.
bert
_modelsimport official.
nlp
.
bert
.run_clas
浏览 39
提问于2020-06-30
得票数 1
1
回答
使用
BERT
编码器
的
二进制分类
模型
保持50%
的
准确率
python
、
tensorflow
、
keras
我正在尝试为Yelp二进制分类任务训练一个简单
的
模型
。Load
BERT
编码器: gs_folder_
bert
= "gs://cloud-tpu-checkpoints/
bert
/keras_
bert
/uncased_L-12_H-768_A-12"
bert
_config_file嵌入数据: encoder_output =
bert
_encoder.predict(train_
浏览 40
提问于2020-09-27
得票数 1
1
回答
将
BERT
模型
作为泡菜文件保存在磁盘上
apache-spark
、
johnsnowlabs-spark-nlp
我已经设法让伯特
模型
工作在约翰斯诺实验室-火花-
nlp
库。我能够将“经过训练
的
模型
”保存在磁盘上,如下所示。拟合
模型
保存
模型
df_
bert
_trained.write().overwrite().save("&
浏览 2
提问于2020-01-23
得票数 1
1
回答
在tf_hub
模型
中可以得到嵌入表吗?
tensorflow
、
nlp
、
bert-language-model
、
pre-trained-model
我在制作伯特
模型
的
时候遇到了问题。我以前在official.
nlp
中使用official.
nlp
,在official.
nlp
中使用MLM任务来训练伯特。但这似乎很难,所以我改变了对一个经过预先训练
的
伯特
模型
。但是,为了完成MLM任务,我似乎需要从tf_hub
模型
中获得嵌入表。我认为从集线器
模型
中提取嵌入表是可能
的
,但是我不知道是否有一些函数可以更快地得到它们,谢谢。
浏览 16
提问于2022-01-28
得票数 1
1
回答
伯特在ELMO/ULMFiT上
的
一些关键优势
是什么
?
deep-learning
、
nlp
我看到
BERT
家族正被用作
NLP
任务
的
基准。对于埃尔莫或ULMFiT这样
的
模型
,伯特
的
一些关键优势
是什么
?
浏览 0
提问于2020-02-16
得票数 9
1
回答
如何使用
BERT
fo机器翻译?
jupyter-notebook
、
machine-translation
、
bert-language-model
、
sequence-to-sequence
对于我
的
学士论文,我必须和
BERT
一起做一个机器翻译
模型
。但我现在什么也得不到。您是否知道一些文档或其他可以帮助我
的
东西?我已经阅读了一些关于这个方向
的
论文,但也许有文档或教程可以帮助我。对于我
的
学士学位论文,我必须将一篇文章
的
摘要翻译成一个标题。我希望有人能帮助我。
浏览 77
提问于2020-04-30
得票数 0
回答已采纳
1
回答
Google助手、Amazon Echo和Apple Siri背后
的
NLP
python
、
nlp
、
chatbot
这些基于辅助
的
模型
是如何分析文本并将它们转换成命令
的
,我
的
意思是它们是如何理解意图、属性和价值
的
。我只想知道所使用
的
模型
是什么
,我还想做一个辅助机器人,有谁知道一个更好
的
模型
,它能从文本中识别命令吗?
浏览 0
提问于2021-07-26
得票数 0
1
回答
如何使用BertTokenizer加载Tokenizer
模型
?
tokenize
、
huggingface-transformers
、
bert-language-model
/
bert
_practice/data/doc.txt"], trainer=trainer) ['/content/drive/MyDrive/Work/
NLP<
浏览 93
提问于2021-09-06
得票数 1
1
回答
经过培训
的
德国伯特
nlp
、
bert
我正在寻找一个(良好
的
)经过良好培训
的
德语
BERT
模型
,以适应Keras/TF框架。理想
的
情况下,有一个最小
的
例子,如何微调
模型
上
的
具体任务,即文本分类! 有人能告诉我一些(开源)资源吗?
浏览 0
提问于2022-02-05
得票数 0
2
回答
BERT
作为特征提取器与微调
BERT
层固定
的
区别
deep-learning
、
nlp
、
bert
、
finetuning
据我所知,利用
BERT
进行某些
NLP
分类任务有两种方法:
BERT
可以执行“特征提取”,其输出将进一步
输入
到另一个(分类)
模型
中。另一种方法是微调一些文本分类任务
的
BERT
,方法是在预培训
的
BERT
中添加一个或多个输出层,并对整个过程进行再培训(有不同数量
的
BERT
层固定)。但是,如果在第二种情况下,我们修复了所有的层,并且添加了分类
模型
中
的
所有层,那么第一种和第
浏览 0
提问于2020-03-26
得票数 1
1
回答
Google Natural Language API使用
BERT
吗?
google-cloud-platform
、
google-cloud-nl
一周前,谷歌宣布将使用
BERT
(),以更好地理解搜索查询和特色片段。 因此,我
的
问题是,
BERT
是否也在Natural Language API中使用,还是这两个独立
的
系统?
浏览 10
提问于2019-11-02
得票数 0
1
回答
空间多标签分类帮助
deep-learning
、
nlp
、
multiclass-classification
、
spacy
我想创建一个使用SpaCy文本多标签
的
多标签文本分类算法。我不明白以下问题:转换后,我们如何使用它来训练自定义类别和应用不同
的
模型
。
浏览 0
提问于2022-03-26
得票数 2
回答已采纳
1
回答
如何使用
BERT
模型
来预测与没有标签
的
数据集
的
句子语义相似度?
python
、
tensorflow
、
keras
、
bert-language-model
我是一个使用
BERT
模型
的
初学者。我正在关注来自Keras网站https://keras.io/examples/
nlp
/semantic_similarity_with_
bert
/#:~:text=Introduction,sentence%20semantic%20similarity%20with%20Transformers
的
教程。但他们在示例中使用
的
数据集具有标签变量(‘相似度’)。是否有任何教程或指
浏览 51
提问于2021-04-06
得票数 0
2
回答
Pytorch
NLP
模型
在推理时不使用GPU
python
、
pytorch
、
huggingface-transformers
、
nvidia-jetson
我在Jetson有一个
NLP
模型
,在Py手电筒上训练。我安装了Jetson来监控CPU和GPU
的
使用情况。根据他们对面临类似问题
的
其他人
的
建议,cuda是可用
的
,我
的
Jetson中也有cuda设备。但是,我不明白为什么GPU条不改变,CPU核心条走到尽头。注:
模型
取自拥抱式变压器库。我尝试在
模型</
浏览 8
提问于2020-09-15
得票数 0
回答已采纳
1
回答
spaCy
BERT
字典
python
、
nlp
、
spacy
、
spacy-transformers
我正在尝试访问spaCy
BERT
字典,但从
模型
中收到奇怪
的
输出。例如,对于en_core_web_lg
模型
,我可以提取大约130万个这样
的
标记tokens = [t for t in
nlp
.vocab]
nlp
= s
浏览 15
提问于2020-03-12
得票数 0
2
回答
TypeError:下拉():参数‘
输入
’(位置1)必须是张量,而不是元组
python
、
pytorch
、
huggingface-transformers
我正在学习
NLP
,并试图建立一个句子分类
模型
。我正在用
模型
创建类,但是我发现
输入
应该是张量类型,而不是元组类型是错误
的
。我使用4.21.2变压器版本。class BertClassificationModel(nn.Module): self.
bert
= BertForSequenceClassification.
浏览 12
提问于2022-09-03
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
五问BERT:深入理解NLP领域爆红的预训练模型
开启NLP新时代的BERT模型,是怎么一步步封神的?
中文任务全面超 BERT,NLP 无监督预训练模型 ERNIE 真有官方说的那么好?
这个基于BERT的单模型,NLP权威测试全球第三!小i机器人押注认知智能再发威
用于自然语言处理的BERT-双向Transformers的直观解释
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券