有没有办法迫使Tensorflow使用单个CPU核心而不是分布式CPU核心?
我之所以这样问是因为通常情况下,在多个CPU之间分配BLAS函数的回报会减少,至少在我尝试过使用OpenBLAS和Julia的情况下是这样。
我想要一个超参数搜索运行超过32个CPU核心,几百个模型培训。我希望在单个CPU核上并行地训练32个模型比使用分布式BLAS来训练32个模型要有效得多(我已经在Mocha Framework / Julia上演示了这一点,在那里这些变化很容易实现)。
发布于 2016-11-10 04:01:37
您应该能够使用常规的numctl --physcpubind
和with tf.device()
。
https://stackoverflow.com/questions/40517515
复制相似问题