我得到一个错误"CUDA out of memory“,然后我将torch.no_grad()函数添加到我的代码中。这对我的准确性有影响吗? encoded, encoder_h_1, encoder_h_2, encoder_h_3 = encoder( code = binarizer(encoded)
w
我正在尝试用PyTorch Fast Dense Feature Extractor实现这篇文章,但我在将他们提供的火炬实现示例转换成PyTorch时遇到了麻烦。到目前为止,我的尝试有一个问题,即当向特征映射添加额外的维度时,卷积权重与特征形状不匹配。这在Torch中是如何管理的(从他们的实现来看,Torch似乎并不关心这一点,但PyTorch关心)。基本上,我有一个特征提取器,可以将128x128的补丁转换为嵌入,我想以密集的方式将其应用于更大的图像,而不是使用for循环来评估每个位置
我是个新手,开始使用这 github代码。我不理解代码"because weights have requires_grad=True, but we don't need to track this in autograd"中第60-61行中的注释。我知道我们提到的变量是requires_grad=True,我们需要这些变量来计算使用自梯度的梯度,但是成为"tracked by autograd"意味着什么呢?