我希望在tensorflow会话中并行运行多个train_op。说tensorflow sess.run()可以释放python的GIL。我试了一下这个例子,但是我们似乎还有一个GIL。我有8个GPU可用。当num_threads是4秒时,它需要24秒。当num_threads是8秒时,它需要54秒。tf.truncated_normal_initializer()))
for i in range(num_threads):
with tf.device(
我正在使用Tensorflow C API来运行在python中保存/冻结的模型。我们过去在CPU上运行这些模型,但最近切换到GPU以提高性能。然而,我们现在的系统也有多个GPU,这导致了一些问题。看起来我不能让Tensorflow和我们的软件使用相同的GPU。
我使用的visible_device_list参数与我们的软件具有相同<e