我正在学习本教程https://pytorch.org/tutorials/beginner/nlp/deep_learning_tutorial.html#example-logistic-regression-bag-of-words-classifiernn.Linear(vocab_size, num_labels)表示矩阵形状为num_labels x vocab_size bow_vector维度为1 x vocab_size,nn.linear的输入应为batch_size x fea
我有大小为n的d向量和一个d x d矩阵J。我想用每个n向量计算J的矩阵向量乘法.对于这一点,我使用pytorch的expand()来获得J的广播,但是在计算矩阵向量积时,Py手电似乎在内存中实例化了一个完整的n x d x d张量。11.00 GiB total capacity; 3.73 GiB already allocated; 5.69 GiB free; 3.73 GiB reserved in total by PyTorch)
这意味着py手电筒不必要地试图为矩
错误消息指出在d_loss.backward()上的[torch.cuda.FloatTensor [256, 1, 4, 4]] is at version 2; expected version 1更新2:所以,一旦我在PyTorch 1.5上运行了模型(如上所述,通过将G的优化器移到d_loss.backward()调用之后),我注意到在训练过程中损失突然变得更大。我让模型运行了几个时期,图像基本上是噪声。因此,出于好奇,我切换回了我的PyTorch 1.4环境,并运行了几个时期的