他们的GPU ID是0,1,2,3。每个K80都有两种类型的GPU内存:FB和BAR1,两者都有12 Gb。但是CUDA程序总是使用FB内存,而BAR1内存则是空闲的。当CUDA程序在每个卡中分配超过12 Gb的GPU内存时,将发生Out of memory错误,但仍未使用BAR1内存。 > Peer access from Tesla K80 (GP
我有一个使用分布式TensorFlow的计划,我看到TensorFlow可以使用GPU进行培训和测试。在集群环境中,每台机器都可能有0或1或更多的GPU,我希望在尽可能多的计算机上将TensorFlow图运行到GPU中。我发现在运行tf.Session()时,TensorFlow在日志消息中提供了有关GPU的信息,如下所示:
I tensorflow/core/common_runtime/gpu/gpu_ini