我知道在任何意义上这并不是机器学习的推荐设置,但我想使用我所拥有的。
作为一个专家,我已经被告知,tf-gpu应该与任何设备支持的库达。
当我跑步时:
from numba import cuda
cuda.detect()
我得到:
Found 1 CUDA devices
id 0 b'GeForce MX130' [SUPPORTED]
compute capability: 5.0
pci device
我有一个使用分布式TensorFlow的计划,我看到TensorFlow可以使用GPU进行培训和测试。在集群环境中,每台机器都可能有0或1或更多的GPU,我希望在尽可能多的计算机上将TensorFlow图运行到GPU中。
我发现在运行tf.Session()时,TensorFlow在日志消息中提供了有关GPU的信息,如下所示:
I tensorflow/core/common_runtime/gpu/gpu_init.cc:126] DMA: 0
I tensorflow/core/common_runtime/gpu/gpu_init.cc:136] 0: Y
I tensorflo
我试图在python 3中创建机器连接,但是我试图编译我的代码--在Cuda 10.0/cuDNN 7.5.0中得到了这个错误,有人能帮我吗?
RTX 2080
我上的是: Keras (2.2.4) tf-夜-gpu (1.14.1.dev20190510)
无法创建cudnn句柄: CUDNN_STATUS_INTERNAL_ERROR
代码erorr:tensorflow.python.framework.errors_impl.UnknownError: Failed to get convolution algorithm. This is probably because
我在Windows10中同时安装了CPU和GPU版本的tensorflow。 conda list t.*flow
# packages in environment at C:\Users\Dell\anaconda4:
#
# Name Version Build Channel
tensorflow 2.3.1 pypi_0 pypi
tensorflow-estimator 2.3.0 p
我使用tensorflow API运行了一个图像处理脚本。结果表明,当我在会话运行过程之外设置for-循环时,处理时间会迅速减少。有人能告诉我为什么吗?有什么副作用吗?
原始代码:
with tf.Session() as sess:
coord = tf.train.Coordinator()
threads = tf.train.start_queue_runners(coord=coord)
for i in range(len(file_list)):
start = time.time()
image_crop, bboxs_crop = sess.run(crop_
我有一个带有2个GPU的工作站,并且我正在尝试同时运行多个tensorflow作业,因此我可以同时训练多个模型,等等。
例如,我尝试通过在script1.py中使用的python API将会话分离到不同的资源中:
with tf.device("/gpu:0"):
# do stuff
在script2.py中:
with tf.device("/gpu:1"):
# do stuff
在script3.py中
with tf.device("/cpu:0"):
# do stuff
如果我单独运行每个脚本,我可以看到它正