腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
8
回答
GPU
作为
CPU
的
可行性
?
cuda
、
cpu
、
gpu
、
gpgpu
您认为像CUDA这样
的
GPU
作为
CPU
计划
的
未来是什么?你认为它们会成为主流并成为行业中
的
下一个时尚吗?苹果正在构建一个使用
GPU
完成
CPU
任务
的
新框架,Nvidias CUDA项目在科学领域取得了很大成功。你会建议学生把时间投入到这个领域吗?
浏览 0
提问于2008-08-26
得票数 13
回答已采纳
4
回答
在普通windows计算机上运行深度学习
machine-learning
、
conv-neural-network
我想尝试一个非常简单
的
使用CNN学习
的
案例(比方说有5000张图片
的
数据库
的
数字识别)。每次我读教程
的
时候,他们都会提到我没有的全新
的
GPU
或linux服务器。我只有一台简单
的
windows笔记本电脑。 所以我
的
问题很简单:在基本硬件上运行“简单”CNN
的
最佳方式是什么?
浏览 15
提问于2016-10-20
得票数 0
2
回答
nVidia数据自动化系统代码不工作?
c++
、
cuda
这是我
的
代码:{} void
gpu
_load(TYPE data(TYPE*
cpu
_var, TYPE*
gpu
_var) int size = 1;} tem
浏览 1
提问于2013-12-06
得票数 1
回答已采纳
1
回答
有没有一种方法可以在奇怪大小
的
数据数组上使用CUB::BlockScan?
cuda
、
cub
所有示例都对大小为32倍
的
数组执行扫描。最快
的
示例使用256个或更多
的
线程,每个线程分配4个或4个以上
的
元素。这意味着,如果我有一个大小为450
的
数组,那么,想必我必须将其压缩到512,然后每个执行256个线程分配两个元素。 好吧,让我们说得更清楚。这是一个简化
的
例子。假设我有两个数组,一个数组就是第二个数组
浏览 4
提问于2019-04-27
得票数 0
回答已采纳
1
回答
使用存储在
GPU
内存中
的
“计数”参数调用glDrawArray
opengl
、
opengl-4
在绘制调用#1期间,我将在片段着色器中生成一个缓冲区(
作为
SSBO访问)。然后,我希望使用该缓冲区(
作为
VBO访问)
作为
绘制调用#2
的
输入。问题是,使用函数void glDrawArrays(GLenum mode, GLint first, GLsizei count),我应该知道
CPU
上
的
count值。但在
CPU
上我不知道这个值。该值仅
作为
原子计数器存储在
GPU
内存中。 是否有任何方法使用存储在
GPU
内存中<em
浏览 0
提问于2019-03-10
得票数 2
回答已采纳
1
回答
库达定时器-
CPU
对
GPU
?
cuda
我试图理解使用CUDA定时器(事件)和常规
CPU
定时方法(gettimeofday在Linux上等)执行内核定时之间
的
区别。通过阅读第8.1节,我觉得唯一真正
的
区别是,当使用
CPU
计时器时,需要记住同步
GPU
,因为调用是异步
的
。想必CUDA事件API会为您做这件事。所以,这是否真的是一个问题: 通过
GPU
事件,您可以获得一个固有的独立于平台
的
定时API,
浏览 2
提问于2013-12-21
得票数 0
回答已采纳
2
回答
clGetMemObjectInfo有时返回假结果[OpenCL]
c++
、
parallel-processing
、
opencl
我有一个笔记本电脑(,英特尔,i5,
CPU
,,,英特尔,HD,4000,
GPU
,集成)和NVIDIA GT653M
作为
离散
GPU
。 我使用
CPU
作为
主机,HD4000
GPU
作为
设备。Q1:现在,当我使用clGetMemObjectInfo ()函数获取包装数组
的
内存缓冲区
的
主机指针(CL_MEM_HOST_PTR)时,该函数有时正确地返回指针,有时返回0。我
的
代码很简单,我想知道为什么会发生这种情
浏览 0
提问于2014-02-06
得票数 0
回答已采纳
1
回答
Pytorch嵌入对
GPU
来说太大,但适合
CPU
pytorch-lightning
我正在使用PyTorch闪电,所以雷电控制
GPU
/
CPU
分配,
作为
回报,我得到了多
GPU
的
培训支持。然后,当我为批处理选择子集时,将其发送到
GPU
。
GPU
_tensor = embedding(idx) 我怎么才能在毕火炬闪电中做到这一点?
浏览 1
提问于2021-03-27
得票数 0
回答已采纳
1
回答
为什么我们需要image.to('CUDA')当我们有model.to('CUDA')
python
、
pytorch
我正在上关于PyTorch
的
课程。我想知道为什么我们需要分别告诉torch.utils.data.DataLoader输出它运行在什么设备上。device) 是否有一个用例,我希望在
GPU
上运行模型,但我
的
输入处于
浏览 1
提问于2018-12-09
得票数 1
回答已采纳
1
回答
无数据传输延迟
的
GPU
(CUDA)非线性优化
cuda
、
mathematical-optimization
我试图完全在
GPU
上执行一个非线性优化问题。目标函数
的
计算和
GPU
到
CPU
的
数据传输是制约
GPU
性能
的
瓶颈。为了解决这个问题,我想 对目标进行严重并行化计算,在
GPU
.上执行整个优化。在
GPU
上,f0(x)确实是快速
的
,但是x从
CPU
传输到
GPU
,然后将F和DF从
GPU
传输回
CPU
需要一段时间(~1秒总计)。因为函数每次迭代被调用几十个时间,这导
浏览 6
提问于2020-01-08
得票数 1
1
回答
CPU
和
GPU
的
代码库相同
c
、
gpgpu
有人在维护
CPU
和
GPU
的
单一代码库方面有经验吗?我想创建一个应用程序,如果可能的话,它将使用
GPU
进行一些长期
的
计算,但如果目标机器上没有兼容
的
GPU
,它将只使用常规
的
CPU
版本。如果我可以使用条件编译指令编写一部分代码,它将编译成
CPU
版本和
GPU
版本,这将是非常有帮助
的
。当然,对于
CPU
和
GPU
,会有一些不同
的
部分,但我希
浏览 1
提问于2012-03-09
得票数 5
1
回答
有没有办法将我所有的GPUs设置为XLA,这样我就可以使用多个gpus而不仅仅是一个gpus了?
tensorflow
、
keras
、
gpu
、
nvidia
我想使用多个
GPU
来训练keras模型。我
的
理解是,您目前不能使用XLA来训练多个gpus。问题是我不知道如何关掉XLA。每个
gpu
都被列为xla
GPU
。
作为
参考,我在最新
的
Ubuntu桌面上使用3 RTX2070s。nvidia-smi确实显示了所有3个gpus。 To call `multi_
gpu
_model` with `gpus=3`, we expect the fol
浏览 0
提问于2019-08-09
得票数 5
2
回答
OpenCV图形处理器库用于矩阵操作有多好?
c++
、
opencv
、
cuda
、
gpu
、
thrust
我正在使用OpenCV
作为
计算机视觉
的
应用程序。我想加速
GPU
上
的
一些矩阵运算(矩阵是相当大
的
),如果可能的话,我希望避免直接在CUDA C中编码。OpenCV 2.4.1具有许多
GPU
加速功能。目前,我
的
GPU
加速(和矢量化)实现在Matlab中使用并行计算工具箱(PCT)大约比我
的
C++实现
的
OpenCV快5-10倍。distance on
GPU
% Returns K(i,j) = (P(i
浏览 6
提问于2012-06-29
得票数 7
回答已采纳
1
回答
Python:数组搜索改进
python
、
arrays
、
list
对于python,我还没有完全找到一种更好地改进它
的
方法(即使我知道这不是正确
的
方法)。我有一个具有这种格式
的
元素列表:高
CPU
,中
GPU
,高RAM,有27种可能
的
组合,对于每一个组合,我想为熊猫添加一个家庭组合,
作为
一个新
的
价值。def match_l
浏览 3
提问于2018-05-31
得票数 0
回答已采纳
1
回答
如何在caffe中改变
GPU
模式和
CPU
模式?
caffe
、
pycaffe
我试图在caffe中运行一个代码,它显示了
CPU
模式。我
的
问题是,在安装caffe之后,是否可以对配置文件进行精化?如果是,怎么做?~/caffe-master$ SOME_COMMANDS BLAH BLAH 如何将运行从
CPU
模式切换到
GPU
模式,反之亦然? 我真的很感激你能帮我。我是首席执行官和蟒蛇
的
初学者。谢谢
浏览 2
提问于2016-12-13
得票数 0
2
回答
使用tensorflow.js加载
的
图形模型可以使用图形处理器上
的
数据,而不需要先将数据传输到中央处理器吗?
javascript
、
gpu
、
cpu
、
tensor
、
tensorflow.js
我目前正在使用TFJS3.8在客户端加载一个分段模型(
作为
tf.GraphModel加载)。为了创建输入Tensor,我调用了browser.fromPixels(imageData),它从同样位于
CPU
上
的
Tensor对象创建
CPU
上
的
ImageData。所有这些都运行得很好,除了我
的
ImageData对象是从带有WebGLRenderingContext
的
画布上
的
图像创建
的
,这意味着它来自
GPU
。这种
GP
浏览 42
提问于2021-10-22
得票数 1
回答已采纳
1
回答
Ubuntu -如何判断是否AVX或SSE,当前正在使用
的
CPU
应用程序?
gpu
、
sse
、
avx
、
avx2
、
boinc
我目前运行BOINC跨多个具有
GPU
的
服务器。 服务器同时运行
GPU
和
CPU
BOINC应用程序。当AVX和SSE在
CPU
应用程序中使用时减慢
CPU
freq
的
速度时,我必须选择我一起运行
的
CPU
/
GPU
,因为一些
GPU
应用程序会被瓶颈(运行时完成速度较慢),而其他应用则不然。目前,一些
CPU
应用程序是命名
的
,所以很明显,他们是否使用AVX,但大多数不是
浏览 36
提问于2020-02-20
得票数 0
回答已采纳
1
回答
使用自定义估计器api
的
tensorflow代码在google cloud-ml引擎中还是在本地机器中有效地使用
gpu
?
python
、
tensorflow
、
google-cloud-platform
、
google-cloud-ml
、
tensorflow-estimator
网络是如此巨大,它应该使用大量
的
gpu
,但在ml-engine
的
作业详细信息页面中显示,它没有使用主
cpu
以及
gpu
。尽管主
cpu
和
gpu
中
的
一些内存正在被使用。我使用"complex_model_s“
作为
主
cpu
,使用"standard-
gpu
”
作为
辅助处理器,并使用类型为"standard“
的
参数服务器。自开始训练以来,它也不会输
浏览 3
提问于2018-07-05
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券