运行2 (2GB) AMD 270 x卡时,是否可以绕过R9对VRAM大小的限制?
我犯了一个错误,以为我的单台2GB的R9 270 x和我的6GB GTX 1060一起运行就行了。然而,DAG已经超过了2GB的限制,到这篇文章,现在我不能运行这两个。
参见Claymore的输出:
ETH: Authorized
Setting DAG epoch #133...
Setting DAG epoch #133 for GPU0
Create GPU buffer for GPU0
Setting DAG epoch #133 for GPU1
GPU0 - not enough GPU mem
我正在尝试做一些挖掘,但当我运行start.bat时,我一直收到以下错误(在cmd中)
╔════════════════════════════════════════════════════════════════╗
║ Claymore's Dual ETH + DCR/SC/LBC/PASC GPU Miner v10.0 ║
╚════════════════════════════════════════════════════════════════╝
ETH: 5 pools are specified
Main Ethereum pool is e
我一直试图在我的GPU上运行我的神经网络,但由于某些原因,在创建设备时,Tensorflow不会看到全部的RAM内存,而是专注于2 2GB的空闲内存。
Using TensorFlow backend.
2018-05-25 11:00:56.992852: I T:\src\github\tensorflow\tensorflow\core\platform\cpu_feature_guard.cc:140] Your CPU supports instructions that this Ten
sorFlow binary was not compiled to use: AVX2
20
我注意到,一个大型复杂数组在GPU上占用的内存是CPU上内存的两倍。
下面是一个很小的例子:
%-- First Try: Complex Single
gpu = gpuDevice(1);
m1 = gpu.FreeMemory;
test = complex(single(zeros(600000/8,1000))); % 600 MByte complex single
whos('test')
test = gpuArray(test);
fprintf(' Used memory on GPU: %e\n', m1-gpu.FreeMemory);
我直接访问cuda内核中的主机mem,没有发现错误,这是为什么?
我试着从那里变得更聪明。
分配主机内存的大小字节,该内存是页面锁定的,并可由设备访问。驱动程序跟踪此函数分配的虚拟内存范围,并自动加速对cudaMemcpy*()等函数的调用。,因为该内存可以由设备直接访问,因此它可以以比使用malloc()等函数获得的可分页内存更高的带宽进行读写。
为什么许多cuda程序会在cudaMemcpy之后添加cudaMallocHost?
#include <stdio.h>
#include <assert.h>
#define N 64
// cuda ker
我试图使用Keras构建CNN模型,然后下载了Tensorflow的gpu版本(因为我有GTX 1050Ti)。一切都正常运行(导入和设置模型),直到我想要将数据拟合到模型中,然后发生了如下错误。我还在只有cpu的环境中测试了代码,一切正常。我想知道我的gpu设置是否有问题?如果是,如何修复?提前感谢!
An error ocurred while starting the kernel
2018 01:54:24.393675: I T:\src\github\tensorflow\tensorflow\core\platform\cpu_feature_guard.cc:140] Your
我有2个GPU GTX1080和Keras v2安装。我在gpu0和gpu1上同时运行两个训练过程。但是,我有ResourceExhaustedError。
少了什么?
python多gpu-process.py --gpu_id=1 (ok)
python process.py --gpu_id=0 (ResourceExhaustedError )。(请帮忙)
# file: multi-gpu-process.py (2 training processes work on different GPUs)
import numpy as np
import os