我正在Tensorflow上做一些卷积计算,在双精度数字上得到了一些奇怪的错误。
由于精度问题,我需要在float64中计算这些张量。
conv3d在float32上运行得很好,但在双精度下,它只能在中央处理器上运行,而对于图形处理器,错误告诉我
InvalidArgumentError (see above for traceback): Cannot assign a device for operation 'Conv3D': Could not satisfy explicit device specification '/device:GPU:0' b
我试图在OneAPI示例中运行正式代码,发现下面的代码实际上并不运行在GPU上。
#pragma omp target data map(to:a[0:sizea],b[0:sizeb]) map(tofrom:c[0:sizec]) device(dnum)
{
// run gemm on gpu, use standard oneMKL interface within a variant dispatch construc
#pragma omp target variant dispatch device(dnum) use_device_ptr(a, b, c)
我有一个内核,它使用OpenCL内置平方根函数(sqrt),但是当我试图在GPU上运行内核时,我在构建时会得到一个无法识别的命令错误,如果我使用浮点数,它可以很好地工作,但是当使用偶数时,它就不能工作了。我在MacOSX10.7.5上运行,我的图形卡是ATI Radeon HD 6750卡。
有人知道问题出在哪里吗?
我一直在使用以下GPU安装Caffe Framework : Geforce 9500 GT CUDA 6.5 (不适用于7.0)
当我运行:make runtest时,出现了以下错误,我不知道是什么原因:
make runtest
.build_debug/tools/caffe
caffe: command line brew
usage: caffe <command> <args>
commands:
train train or finetune a model
test score a model
d
我期望GTX 680 (它是GPU的最新版本之一)能够进行并发数据传输(双向并发数据传输)。但是当我运行cuda SDK的“设备查询”时,“并发复制和执行”一词的测试结果是"Yes with the copy engine",这意味着GPU不能进行并发数据传输。
我想知道我的测试结果会不会也发生在你身上?您能和我分享一下哪些设备能够并发传输数据吗?
谢谢!