我在研究分布式Tensorflow。
# Create and start a server for the local task.
server = tf.train.Server(cluster,
job_name=FLAGS.job_name,
task_index=FLAGS.task_index)
if FLAGS.job_name == "ps":
server.join()
当我只启动一台ps服务器时。我看到它使用了所有的GPU和所有的GPU内存。
(我的环境:2个特斯拉K80 GPU)
+------------------