腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
使用
tensorflow实现HuggingFace
BERT
进行句子分类
、
、
、
我正在尝试训练一个模型来预测真实的灾难推文(Kaggle竞赛),
使用
拥抱脸
bert
模型对推文进行分类。我遵循了许多教程,
使用
了许多
bert
模型,但没有一个可以在COlab中运行,并抛出了错误!/embeddings:0', 'tf_distil_
bert
_model_23/distilbert/embeddings/LayerNorm/gamma:0', 'tf_distil_
bert</em
浏览 5
提问于2020-06-14
得票数 1
1
回答
如何
使用
多
GPU
_
BERT
、
、
我
使用
以下
BERT
代码在多个
GPU
上进行分析。False, ) model.cuda() 当用一个
GPU
浏览 32
提问于2020-10-23
得票数 0
2
回答
Pytorch NLP模型在推理时不
使用
GPU
、
、
、
我安装了Jetson来监控CPU和
GPU
的
使用
情况。当我运行Python脚本时,只有CPU内核才能加载,
GPU
条不会增加.我在Google上搜索过这方面的关键词,比如“
如何
检查Py手电是否
使用
GPU
?”但是,我不明白为什么
GPU
条不改变,CPU核心条走到尽头。 我不想
使用
CPU,计算时间太长了。在我看来,它
使用
的是CPU而不是
GPU
。我
如何
确定,如果它
使用
CPU,
如何</e
浏览 8
提问于2020-09-15
得票数 0
回答已采纳
1
回答
如何
在伯特中设置特定的
gpu
?
、
、
ResourceExhaustedError (关于追溯,请参阅上文): 当分配形状为768的张量并输入浮动时[节点
bert
/encoder/layer_0/attention/output/LayerNorm/beta/adam_m/Initializer/zeros (定义在/home/zyl/souhu/
bert
/最优化)= Const_class="loc:@
bert
/en
浏览 0
提问于2019-04-25
得票数 0
1
回答
使用
编码器-解码器模型在Keras中用于抽象文本摘要的
BERT
嵌入
、
、
、
、
我正在
使用
Keras中的编码器-解码器架构进行文本摘要任务。我想
使用
不同的词嵌入来测试模型的性能,比如GloVe和
BERT
。我已经用GloVe嵌入进行了测试,但在
使用
Keras的seq2seq模型中找不到合适的
BERT
嵌入示例。.>
如何
将
BERT
单词嵌入添加到这样的模型中?
浏览 3
提问于2020-05-25
得票数 2
1
回答
如何
使用
Tensorflow Lite在Mali
GPU
上运行Transformer和
BERT
模型?
、
、
、
我正在尝试
使用
Tensorflow Lite在Mali上运行Transformer和
BERT
模型,但据我所知,tflite只支持
GPU
上的一些操作,而不是深度学习模型本身。你有什么想法和建议可以让我在Mali
GPU
上运行这些Transformer和
BERT
模型吗?我可以将Tensoflow
GPU
模型转换为tflite
GPU
模型吗?或者,是否有其他库支持嵌入式
GPU
上的转换器?
浏览 9
提问于2021-06-24
得票数 0
2
回答
Google Colab中的
BERT
多
类文本分类
、
、
、
、
但据我所知,
BERT
希望DataFrame的格式是这样的:0 a 8 'http://www.youtube.com/watch?experienc... 0 1 0 1我已经
使用
以下命令安装了pytorch-pretrained
bert
: !pip install pytorch-pr
浏览 2
提问于2019-06-23
得票数 2
1
回答
ValueError:目标大小(torch.Size([64,3])必须与输入大小相同(torch.Size([32,3]))
、
、
、
、
参考github:这不是内存问题,
如何
解决这个错误?示例代码:if torch.cuda.device_count() > 1:e
浏览 2
提问于2020-06-24
得票数 0
2
回答
使用
艾伯特(拥抱脸-变压器)运行SQuAD脚本
、
、
、
我有一个问题,关于
使用
艾伯特与SQuAD 2.0拥抱脸变压器脚本。 --train_file train-v2.0.json
浏览 5
提问于2020-04-19
得票数 0
回答已采纳
1
回答
如何
在google上运行“run_squad.py”?它提供了“无效语法”错误。
、
、
、
、
我首先
使用
以下方法下载了该文件:然后
使用
以下代码python run_squad.py \ --model_name_or_path
bert
-base-uncase
浏览 13
提问于2021-07-30
得票数 0
回答已采纳
1
回答
Geforce Nvidia MX130上的图形处理器运行时错误
、
、
我正在尝试
使用
BERT
a微调Spacy NER模型 #Train the data !python -m spacy train -g 0 config_spacy_
bert
.cfg --output ./output --paths.train .Tried to allocate 18.00 MiB (
GPU
0; 1.96 GiB total capacity; 958.13 MiB already allocated; 11.25 MiBfree; 978.00 MiB reserved in tota
浏览 47
提问于2021-10-12
得票数 0
2
回答
hub.KerasLayer在tensorflow 2.0中
如何
使用
自动混合精度
、
、
、
根据的说法,我尝试在tensorflow 2.0中
使用
keras风格的自动混合精度(AMP)。这是我的代码: #!应该是float16,因为
使用
mixed_float16策略的是一个层(即
bert
_layer)的输出。另一个证据是
GPU
内存的
使用
(
Bert
层中的变量占主导地位)在这两种情况下几乎相同。就我个人而言,我认为这是由于在伯特中定义的层已经被硬编码成有一个dtype float32,所以我们不能
使用
mixed_float策略来改变它的行为。,对吗?还可能是什么
浏览 2
提问于2020-01-05
得票数 2
1
回答
从语句转换器创建对象时
GPU
内存泄漏
、
、
、
、
描述由于一些未知的原因,在同一个变量名下多次创建对象,最终导致内存空间不足,无法分配转换器。= SentenceTransformer("
bert
-large-nli-stsb-mean-tokens")在
GPU
中分配的任何模型都会发生这种情况。在我的NVIDIA GTX 1060上,它达到了第四个周期,但在较小的
GPU
上,它更早崩溃。一种时态解决方案是只在外部创建模型一次,然后根据需要将模型作为
浏览 12
提问于2020-07-16
得票数 2
回答已采纳
2
回答
如何
用多个
GPU
训练电筒模型?
、
、
我的服务器有两个
GPU
,我
如何
使用
两个
GPU
同时进行训练,以最大限度地利用它们的计算能力?下面的代码正确吗?它能让我的模特接受适当的训练吗?__init__() # for param in self.
bert
.parameters():forward(self, input_ids, attention_mask):
浏览 5
提问于2022-08-07
得票数 3
回答已采纳
1
回答
如何
通过TimeDistributed层
使用
bert
层进行
多
实例学习?
、
、
我想
使用
Bert
执行
多
实例学习。一包实例包含40个句子。每句话应该输出一个标签,最终的标签应该是所有标签的平均值。 我试过
使用
tensorflow_hub的
bert
layer。但我不知道
如何
在TimeDistributed中
使用
它。
bert
_layer = hub.KerasLayer("https://tfhub.dev/tensorflow/
bert
_en_uncased_L-1
浏览 24
提问于2020-12-22
得票数 1
8
回答
无法导入
bert
.tokenization
、
、
我
使用
的是Google,下面的导入不知何故不起作用:我得到了这个错误:我试图通过运行以下命令来安装
bert
:知道
如何
解决这个错误吗?
浏览 8
提问于2019-06-12
得票数 11
回答已采纳
1
回答
如何
使用
预先训练过的Tensorflow模型从Github和CheckPoint文件中运行推理
、
确保指定在您的作品中
使用
的预培训权重的版本。另外,请注意,此存储库基于Google的
BERT
存储库。 所有的微调实验都是在一台拥有12
GPU
内存的土卫六Xp
GPU
机器上进行的。
使用
Python2和Python3对代码进行了测试(我们
使用
Python2进行实验)。您可能希望安装java来
使用
BioASQ的官方评估脚本。test -d bioBert_repo|| git clone https://github.com/dmis-lab&
浏览 1
提问于2019-04-13
得票数 0
1
回答
我需要什么样的
GPU
大小来微调伯特的基本外壳?
、
、
、
、
我想微调伯特多语种,但我不知道
GPU
要求培训伯特多语言。我的本地机器上有GTX 1050ti 4GB。我想知道
GPU
需要什么样的尺寸,需要什么样的
GPU
来训练伯特。我可以访问服务器资源。有人能告诉我我应该在服务器上要求什么尺寸的
GPU
吗?
浏览 0
提问于2020-08-26
得票数 6
3
回答
现实中
多
gpu
训练的优势是什么?
、
、
、
、
一个
gpu
和多个
gpu
的训练损失递减速度基本相同.但是为什么平均梯度呢?模型是否真的同时提供了更多的数据?
浏览 0
提问于2018-12-25
得票数 3
回答已采纳
1
回答
在Google Cloud Platform中
使用
哪个机器实例来运行
GPU
工作负载
、
、
、
我正在尝试运行Elasticsearch
BERT
应用程序,希望了解
使用
GPU
微调模型的最低配置。我应该
使用
什么机器配置? 参考github:
浏览 0
提问于2020-06-23
得票数 5
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何使用BERT进行自然语言处理?
【信息抽取】如何使用BERT进行关系抽取
如何通过几行 Python 代码,使用BERT进行词嵌入?
BERT的正确使用姿势
使用Accelerate库在多GPU上进行LLM推理
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券