我有一个用PyTorch编写的神经网络,它在GPU上输出一些张量a。我想继续使用高效的a层来处理TensorFlow。据我所知,唯一的方法是将a从GPU内存移到CPU内存,转换为numpy,然后将其输入TensorFlow。一个简化的例子:import tensorflow as tf
a =在上面使用non_blocki
我试着用pytorch运行一个强化学习算法,但是它一直告诉我CUDA已经没有记忆了。然而,它似乎只是访问我的GPU的内存的一小部分。0; 4.00 GiB total capacity; 3.78 MiB already allocated; 0 bytes free; 4.00 MiB reserved in total by PyTorch