腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(3831)
视频
沙龙
1
回答
如何
避免
在
Huggingface
Trainer
类
中
恢复
训练
时
迭代
Dataloader
?
、
、
我目前正在使用
Huggingface
的
Trainer
类
来
训练
Distillbert,以解决使用自定义损失函数的回归问题。由于计算/意外错误的短暂性质,我正在使用他们的检查点来
恢复
训练
。我面临的问题是,每次我通过
Trainer
.train()方法
中
的model_path从检查点
恢复
训练
时
,我注意到该类会
迭代
数据加载器,直到达到检查点中保存的
迭代
计数(see
浏览 60
提问于2020-07-23
得票数 4
回答已采纳
1
回答
训练
中
的集合面错误: AttributeError:'str‘对象没有属性'size’
、
、
、
、
当我试图用Py电筒闪电制作一个用于随意语言建模(给定一系列单词,预测下一个单词)的
Huggingface
模型
时
,我
在
训练
中
遇到了一个错误: 我们的
训练
代码出了什么问题?这是由于
在
Pytorch
DataLoader
中
不正确地使用了
DataLoader
吗?=
DataLoader
(self.train_datas
浏览 3
提问于2021-03-27
得票数 0
1
回答
数据校对器没有
在
训练
员课上设置?
、
、
我正在
训练
一个使用拥抱脸模型的语言模型。我使用的是RoBERTa模型,我
在
训练
时
遇到了问题。这就是我
如何
使用DataCollatorForLanguageModeling作为data_collator创建
训练
器
类
的方法。
trainer
=
Trainer
( args=training_args, train_datasettrai
浏览 10
提问于2022-10-17
得票数 0
1
回答
火炬照明用model.to(器件)
、
目前,我使用Pytorch闪电使用GPU
训练
我的模型 distributed_backend='ddp',resume_from_checkpoint=hparams["resume_from_checkpoint"])
trainer
.fit(model, train_
dataloader
trainer
.test(test_
datal
浏览 3
提问于2020-12-07
得票数 1
回答已采纳
1
回答
PyTorch:我能按长度分组批次吗?
、
、
我正在从事一个ASR项目,在那里我使用来自
HuggingFace
(wav2vec2)的模型。我现在的目标是将培训过程转移到PyTorch,所以我尝试重新创建
HuggingFace
的
Trainer
()
类
提供的所有内容。不过,老实说,我甚至不知道
如何
在PyTorch
中
开始这一步。
在
我的例子
中
,输入是表示.wav文件的原始波形的一维数组。因此,
在
进行
训练
之前,我需要确保类似大小的数组能够成批在一起。我是否需要创建一个定
浏览 2
提问于2021-08-14
得票数 0
回答已采纳
1
回答
如何
与
Huggingface
的教练一起进行单一的
训练
?
、
、
、
我想定义一个
Huggingface
对象,它包含一组
训练
参数,包括给定一组历元上的学习速率退火的线性时间表,然后一次
训练
一个阶段,保持
训练
器的状态(优化器/调度/等等)。跨越时代。我想做的事情看起来像是: data = modify_data()
trainer
.train_one_epoch() 如果我
浏览 1
提问于2022-03-24
得票数 -1
1
回答
HuggingFace
:使用自定义data_loader和data_collator从本地目录流式传输数据集
、
、
、
我有自定义的data_loader和data_collator,我正在使用
HuggingFace
应用程序接口进行变压器模型的
训练
。它还执行数据集的映射,其中还执行了标记化。我的data_loader脚本是一个继承了datasets.GeneratorBasedBuilder的
类
,所以包含了生成样本的_generate_examples函数。
在
开始
训练
时
,它缓存整个数据集(仅在系统上缓存一次),然后开始
训练
。我可以
在
本地系统上重用该缓存,但不能在任何其他
浏览 303
提问于2021-10-08
得票数 0
3
回答
如何
在PyTorch
中
从
dataloader
中
获取整个数据集
、
、
如何
从
DataLoader
加载整个数据集?我只得到了一批数据集。这是我的代码images, labels = next(iter(
dataloader
))
浏览 0
提问于2019-08-07
得票数 5
4
回答
火炬雷电模型的输出预测
、
、
我刚从PyTorch闪电开始,我不知道
如何
在
训练
后接收我的模型的输出。我对y_train和y_test作为某种数组(稍后步骤
中
的PyTorch张量或NumPy数组)的预测很感兴趣,它们使用不同的脚本绘制标签旁边的图。= Net(feature_len)
trainer
= pl.
Trainer
(gpus=0,max_epochs=max_epochs, logger=logger, progress_bar_refresh_rate=20, callbacks=[early_stop_callback],
浏览 6
提问于2021-01-20
得票数 7
回答已采纳
1
回答
HuggingFace
储蓄-加载模型(Colab)进行预测
、
、
使用
HuggingFace
训练
变压器模型来预测目标变量(例如,电影评级)。我对Python很陌生,这可能是一个简单的问题,但我不知道
如何
保存经过
训练
的分类器模型(通过Colab),然后重新加载,以便对新数据进行目标变量预测。作为一个例子,我用
HuggingFace
资源
中
的一个例子
训练
了一个预测imbd评分的模型,如下所示。我尝试过很多种方法(save_model,save_pretrained),它们要么很难保存,要么
在
加载
时
,不知道
浏览 27
提问于2021-06-12
得票数 3
1
回答
不能用allennlp延迟加载
、
、
、
迭代
器不起作用,并且使用0样本进行培训。it/s]目前,
在
训练
模型之前,我试图
避免
将所有的样本数据放在内存上。train, dev, tes
浏览 7
提问于2021-05-04
得票数 0
回答已采纳
1
回答
HuggingFace
的“培训”能为课程学习定制吗?
、
、
、
、
我一直
在
寻找
HuggingFace
转换器
Trainer
对象(特别是Seq2SeqTrainer)
中
的某些特性,并想知道它们是否存在,如果存在,
如何
实现它们,或者我是否需要编写自己的培训循环来启用它们。我希望将课程学习应用到我的培训策略
中
,并定期评估该模式,因此,我希望能够做到以下几点 选择模型
在
每个时期查看
训练
样本的顺序(似乎传递给train_dataset参数的数据会被一些内部代码自动调整),即使我设法阻止了这一点compute_metrics的标准
浏览 17
提问于2022-08-26
得票数 0
2
回答
如何
有效地将一个大型并行语料库转换成一个集合数据集来
训练
一个EncoderDecoderModel?
、
、
、
、
在
预编码数据集上工作的典型EncoderDecoderModelfrom transformers import EncoderDecoderModel当使用wmt14数据集
时
,可以使用预处理/编码数据集来
训练
模型: train_data = datasets.load_dataset("wmt14", "de-en"train_datas
浏览 33
提问于2022-10-20
得票数 0
回答已采纳
1
回答
huggingface
transformer models: BERT模型
训练
开始
时
的KeyError:'input_ids‘消息
、
、
使用
Huggingface
转换库,当我为掩蔽语言建模任务微调BERT语言模型
时
,我
在
最后一步遇到了一个bug。我希望微调它在一个领域的金融语料库,该模型尚未培训。然而,当我调用模型进行
训练
时
,我得到了以下错误消息: KeyError:'input_ids‘。下面提供的是我采用的步骤和代码。任何有见地的人都很感激!首先,我从一个pandas数据帧创建了一个dataset对象,该数据帧又是从一个包含一列多行文本的csv文件
中
创建的: unlabelled_dataset = Dat
浏览 117
提问于2020-11-19
得票数 1
1
回答
在
训练
期间,pybrain
中
的总误差是什么?
、
yTrain = dataTrain['input'], dataTrain['target']
trainer
= BackpropTrainer(fnn, dataTrain, verbose = True, learningrate=0.01)当我运行这段代码
时
浏览 18
提问于2016-04-03
得票数 0
1
回答
用
Huggingface
微调bert-大容量全字掩蔽模型
时
的类型误差
、
我正试着微调一个
Huggingface
大型未加修饰的全字掩蔽模型,并且我
在
训练
时
遇到了这样的类型错误:以下是代码:然后,我随机地掩盖了输入ids中大约15%的单词,并为数据集定义了一个
类
,然后
在
训练
循环中发生错误: class
浏览 4
提问于2021-10-28
得票数 0
2
回答
如何
将标记器输出转换为
Huggingface
Transformers
中
Trainer
所需的train_dataset?
、
我尝试使用
huggingface
transformers的文档进行标记化。tokenizer = AutoTokenizer.from_pretrained('bert-base-cased')'input_ids': [[],[],[]],'atte
浏览 107
提问于2020-08-21
得票数 3
2
回答
与
训练
集损失不同,开发集损失总是
在
增加
、
、
、
、
为了做到这一点,我使用
huggingface
transformet的BERT模型,并在其上添加一个线性层进行微调。我的问题是,
训练
集上的损失正在减少,这是很好的,但当涉及到
在
开发集上的每个时期之后进行评估
时
,损失随着时期的推移而增加。我正在发布我的代码,以调查它是否有问题。, batch in enumerate(train_
dataloader
): total_train_loss +enumera
浏览 89
提问于2020-05-03
得票数 0
回答已采纳
1
回答
Python
类
+ PyTorch
Dataloader
:卡在__getitem__上,
在
测试期间
如何
获取索引、标签等?
、
、
、
、
我有一个“数据集”
类
,其中包括熊猫数据。因此,我分成了普通数据集和验证数据集。到目前为止没问题。我将其加载到一个Numpy向量
中
,将其传递给张量,然后将其定向到
DataLoader
。Dataset
类
具有以下两个用于
迭代
的重要
类
: return len(self.val_df) def __getitem__(self, indeximg, target = self.val_df[index][:-1], self.val_df[i
浏览 4
提问于2020-05-18
得票数 2
回答已采纳
1
回答
Spring Entity OneToMany忽略自身
、
、
、
, private Set<Pokemon> pokemons = new HashSet<>();更新实体
时
一切正常。然而,当我尝试检索所有
训练
器
时
,它将
训练
器包含在pokemon
中
,这是我不想要的。: "Ash Ketchum", }
浏览 0
提问于2018-04-05
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习工程模板:简化加载数据、构建网络、训练模型和预测样本的流程
PyTorch Lightning,一个轻量级的PyTorch框架!
使用LORA微调RoBERTa
使用Huggingface创建大语言模型RLHF训练流程的完整教程
PyTorch 1.12发布,支持在Mac上进行加速训练并新增TorchArrow库
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券