我正在尝试用PyTorch Fast Dense Feature Extractor实现这篇文章,但我在将他们提供的火炬实现示例转换成PyTorch时遇到了麻烦。到目前为止,我的尝试有一个问题,即当向特征映射添加额外的维度时,卷积权重与特征形状不匹配。这在Torch中是如何管理的(从他们的实现来看,Torch似乎并不关心这一点,但PyTorch关心)。基本上,我有一个特征提取器,可以将128x128的补丁转换为嵌入,我想以密集的方式将其应用于更大的图像,而不是使用for
当图像通过每一层的卷积神经网络时,我试图找出图像的维数。例如,如果应用了最大值池或卷积,我想知道该层的图像的形状,对于所有的层。我知道我可以使用nOut=image+2p-f / s + 1公式,但是考虑到PyTorch模型的大小,它太繁琐和复杂了。是否有一种简单的方法来做到这一点,比如可视化工具/脚本或其他什么?