我已经在我的ubuntu16.04中使用第二个答案here在ubuntu的内置apt cuda安装中安装了tensorflow。
现在我的问题是,我如何测试tensorflow是否真的在使用gpu?我有一个gtx 960m的gpu。当我使用import tensorflow
命令时,这是输出
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcublas.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcudnn.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcufft.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcurand.so locally
这个输出是否足以检查tensorflow是否使用了gpu?
发布于 2016-06-25 02:07:14
不,我认为“开放CUDA库”不足以说明问题,因为图形的不同节点可能在不同的设备上。
使用tensorflow2时:
print("Num GPUs Available: ", len(tf.config.list_physical_devices('GPU')))
对于tensorflow1,要找出使用了哪个设备,您可以像这样启用日志设备放置:
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
检查您的控制台是否有此类型的输出。
发布于 2018-03-24 17:55:35
我认为有一种更简单的方法来实现这一点。
import tensorflow as tf
if tf.test.gpu_device_name():
print('Default GPU Device: {}'.format(tf.test.gpu_device_name()))
else:
print("Please install GPU version of TF")
它通常打印如下
Default GPU Device: /device:GPU:0
对我来说,这似乎比那些冗长的日志更容易。
编辑:-这是针对TF 1.x版本进行的测试。我从来没有机会使用TF 2.0或更高版本做一些事情,所以请记住。
发布于 2018-06-06 05:01:21
除了其他答案之外,以下内容还可以帮助您确保您的tensorflow版本包含GPU支持。
import tensorflow as tf
print(tf.test.is_built_with_cuda())
https://stackoverflow.com/questions/38009682
复制相似问题