我有一个C++程序,使用Tensorflow 2运行卷积神经网络的推理。该程序运行在具有专用GPU的服务器上,所期望的行为是在GPU上运行的推断。在GPU出现故障时,Tensorflow开始使用CPU而不是GPU。有没有使用Tensorflow C++ API来检查Tensorflow是否正在使用CPU的方法?在C++失败的情况下,是否有任何方法可以避免Tensorflow切换到CPU?
我正在尝试从tensorflow对象检测API运行模型评分(推理图),以便在多个GPU上运行它,尝试在主GPU中指定GPU编号,但它只在单个GPU上运行。placed GPU utilization snapshot here 使用tensorflow-gpu==1.13.1,您能指出我在这里遗漏了什么吗?for i in range(2):
with tf.device('/gpu</em