我正在研究分布式Tensorflow,特别是使用以下论文https://github.com/Russell91/TensorBox中给出的分布式Tensorflow实现复现模型。
我们正在使用图与图之间的异步实现分布式tensorflow设置,但结果非常令人惊讶。在替补席上,我们发现分布式训练的训练时间几乎是单机训练的2倍。任何关于可能发生的事情和可以尝试的其他事情的线索都会被真正感谢。谢谢
注:文章中有更正,我们使用的是图之间的实现,而不是图中的实现.对不起,我错了
发布于 2016-10-02 02:39:51
一般来说,如果从模型的单进程实现转移到多机器实现会导致放缓,我不会感到惊讶。从您的问题中可以看出,究竟发生了什么,但以下是一些一般性的提示:
memcpy()
。)https://stackoverflow.com/questions/39788542
复制相似问题