我发现了如何使用cycle() and zip()进行设置,因为我的数据集与此处的长度不同:How to iterate over two dataloaders simultaneously using pytorch_1), train_loader_2)):
File "/home/.conda/envs/3dcnn/lib/python3.7/site-packages/torch/utils/data/dataloader.p
我感兴趣的是如何按照顺序组合多个DataLoader来进行培训。我知道我可以首先使用ConcatDataset组合数据集,但这并不适用于我的用例。因此,我将有一组定制的DataLoader,如下所示: data = clean_sample(torch.stack([x[0torch.tensor([x[1] for x in sample])
class CollateLoader(torch.utils.data.DataL