腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
并行
布鲁特力算法
GPU
、
、
我已经在Python中实现了一个
并行
BF生成器,如本文中的所示。有人能帮我解决
GPU
上
并行
BF生成器的一些代码示例吗?
浏览 1
提问于2016-11-17
得票数 1
回答已采纳
1
回答
模型
并行
在tensorflow中的实现
、
、
我目前正在开发一个有2个
GPU
的系统,每个
GPU
的容量为12 of。我想在两个
GPU
之间实现模型
并行
,以训练大型模型。我一直在互联网上浏览,所以,tensorflow文档等等,我能够找到关于模型
并行
性的解释及其结果,但是我没有找到一个关于如何使用tensorflow实现它的小教程或小代码片段。在tensorflow中是否有实现模型
并行
的特定或更清晰的方法?如果您能建议我一个可以学习实现它的地方,或者使用‘模型
并行
’在多个
GPU
上进行mnist培训这样的
浏览 1
提问于2017-02-06
得票数 9
回答已采纳
1
回答
GPU
如何
并行
化不同的任务?
我非常有兴趣了解
GPU
如何
并行
不同的任务,如实时渲染和训练神经网络。我知道
并行
化背后的数学原理,但我很想知道
GPU
到底是如何工作的。实时绘制和训练神经网络是不同的.
GPU
如何有效地
并行
这两个任务?
浏览 3
提问于2020-05-07
得票数 0
回答已采纳
2
回答
CPU SIMD与
GPU
SIMD?
、
、
、
图形处理器使用范式,即代码的相同部分将被
并行
执行,并应用于数据集的各个元素。在哪方面,CPU的
并行
计算能力比
GPU
的“弱”?
浏览 0
提问于2014-12-07
得票数 35
回答已采纳
1
回答
如何使用Talos
并行
化GridSearch扫描
、
虽然talos支持
GPU
并行
化,但如何扩展扫描对象以支持CPU +
GPU
并行
化?
浏览 10
提问于2019-05-07
得票数 2
3
回答
应该使用
GPU
吗?
、
如果我使用
GPU
,我如何知道我的串行代码是否会运行得更快?我知道这取决于很多事情...也就是说,如果代码可以在SMID fation中
并行
,以及所有这些东西...但是,我应该考虑什么因素才能“确定”我将获得速度?算法应该是令人尴尬的
并行
吗?因此,如果算法的某些部分不能
并行
化,我不会费心去尝试
GPU
?我应该考虑样本输入需要多少内存吗? 串行代码的“规格”是什么使它在
GPU
上运行得更快?一个复杂的算法能在
GPU
上获得速度吗?我不想浪费时间和尝试在
GPU
上编
浏览 0
提问于2011-04-14
得票数 1
回答已采纳
1
回答
GNU
并行
和
GPU
?
、
我感兴趣的是让GNU
并行
在
GPU
上运行一些数值计算任务。一般说来,以下是我的初步方法: 如果是这样的话,我如何配置GNU
并行
来做到这一点?
浏览 3
提问于2019-03-04
得票数 2
回答已采纳
2
回答
如何用多个
GPU
训练电筒模型?
、
、
我的服务器有两个
GPU
,我如何使用两个
GPU
同时进行训练,以最大限度地利用它们的计算能力?下面的代码正确吗?它能让我的模特接受适当的训练吗?
浏览 5
提问于2022-08-07
得票数 3
回答已采纳
3
回答
有没有办法强迫Bazel连续运行测试?
、
、
默认情况下,Bazel以
并行
方式运行测试,以加快速度。但是,由于
GPU
内存限制,我有一个无法处理
并行
作业的资源(
GPU
)。是否有办法强迫Bazel以串行方式运行测试,即非
并行
方式? 谢谢。
浏览 2
提问于2016-01-29
得票数 16
回答已采纳
2
回答
Tensorflow-
GPU
上的类CUDA优化
我正在尝试实现一个神经网络体系结构(自组织映射),以便在
GPU
上执行。我正在探索这个任务的TensorFlow。在TensorFlow中,我注意到您只需指定
gpu
作为在
gpu
上执行某些操作的设备,比如在 post中。看起来,
并行
操作的方式由TF决定,用户没有选择来做出优化决策。TensorFlow性能指南中的“
GPU
优化”部分也没有提到对
并行
化操作的显式控制。 我的问题是,我可以在TensorFlow中进行类似CUDA的优化吗?更详细地说,是否有可能定义哪些操作将被
并行
浏览 8
提问于2018-01-08
得票数 1
回答已采纳
1
回答
为什么与
GPU
相比,具有较短倒排列表的查询在CPU上执行得更好
、
、
、
此外,为什么具有更长倒排列表的查询在
GPU
上执行得更好? 我在一篇名为《使用图形处理器进行高性能IR查询》的论文中读到了这一结果。
浏览 4
提问于2011-05-12
得票数 1
2
回答
GPU
架构(Nvidia)
、
、
在我正在阅读的所有论文中,我看到
GPU
是由多处理器组成的,每个多处理器有8个处理器,能够
并行
执行单个warp。我能说在Nvidia 560上
并行
执行的最大线程数是32*6*7=1344线程吗?(32=warp,7=multipricessors,6=warps
并行
执行) 最快的Nvidia
GPU
有多少
浏览 4
提问于2012-05-15
得票数 3
回答已采纳
1
回答
FPGA的
并行
程度如何?
、
我是为
GPU
世界而来的。当我向
GPU
提交要处理的1024x1024像素的图像时,我知道
GPU
上没有1048576个
并行
运行的线程。如果
GPU
的波形大小是64,那么64个线程实际上是
并行
运行的。然后这些波形中的许多也是
并行
运行的。我想说的是,一个
GPU
可以真正地同时
并行
运行它的所有线程流处理器。这从几百到10K不等。对于1024x1024的映像,具有10K线程的
GPU
必须串行运行100个
并行
工作负载块
浏览 48
提问于2021-08-26
得票数 0
1
回答
TensorFlow Slim - cpu上的克隆
在以下代码段中,“使用CPU部署克隆”意味着什么? 'clone_on_cpu', False,)
浏览 2
提问于2017-08-28
得票数 1
回答已采纳
1
回答
渲染循环-最大
并行
化
、
、
、
理论上,CPU和
GPU
并行
工作。当CPU等待
GPU
完成缓冲区更改时,这将使其成为一个串行进程。如何使我的游戏循环
并行
工作,或者我的理解是错误的?现在图像,我们想要
并行
化,
GPU
比CPU慢,CPU继续下一个帧,而
GPU
正在渲染。我们有第二个线程等待
GPU
完成。完成
GPU
后,将计算下一个映像。现在,OpenGL状态更改和绘制命令在哪里?
GPU
现在很忙。这使我得出结论,我遗漏了一些东西。 编辑:
浏览 4
提问于2017-06-18
得票数 0
回答已采纳
3
回答
使用
GPU
进行
并行
循环的最简单方法
、
、
、
、
我目前有一个类似于此的
并行
for循环:parallel_for (1, 100,我感兴趣的是利用
GPU
来帮助
并行
处理任务。我读过这样令人难堪的
并行
任务可以相当有效地利用现代
GPU
。 使用任何语言,对于这样一个简单的
并行
循环,使用
GPU
的最简单方法是什么?我对
GPU
架构或本地
GPU
代码一无所知。
浏览 4
提问于2012-04-10
得票数 6
回答已采纳
1
回答
GNU
并行
-交替参数
、
我希望能够为每次执行
并行
命令替换一个参数。 我有一个处理图像的脚本,我使用GNU
并行
同时启动多个进程。我在这个脚本中使用
GPU
核心,但我的2个
GPU
核心中只有一个是使用的。我希望能够使用2个不同的配置文件(一个用于
GPU
1et,一个用于
GPU
2),但我不知道如何做到这一点。gsutil ls -d $ee_repo | parallel -j 10 -k "task {} $PWD $year $config"与$config从
gpu
_1转换为<e
浏览 3
提问于2020-09-09
得票数 2
2
回答
TensorFlow多
gpu
训练中的模型
并行
性
我正在使用tensorflow在一台机器上训练几个
GPU
中的模型。然而,我发现速度比在一个
GPU
上训练要慢得多。我想知道tensorflow是否在不同的
GPU
中
并行
地或顺序地执行子模型。例如:y = 2 z1 = tf.multiply(x, y)/
浏览 2
提问于2018-04-02
得票数 0
回答已采纳
2
回答
为什么Jacobi方法是在
GPU
上实现的一个很好的候选算法?
我知道
GPU
有数百个核心,可以同时处理数千个线程,而在Jacobi迭代中,您实际上是在一次又一次地使用相同的数字来更新向量。这就是为什么在
GPU
上实现Jacobi方法是个好主意吗,特别是如果我们有一个非常大的系统,因为我们有那么多的冗余计算? 我想我不太明白为什么Jacobi方法适合
GPU
浏览 0
提问于2014-12-03
得票数 5
1
回答
在PyTorch训练之外使用多个
GPU
、
、
我试着将我的模型封装在nn.DataParallel上,但是ac_distance中的所有计算都是使用一个
gpu
完成的,但是它同时使用两个
gpu
进行训练。
浏览 0
提问于2019-04-11
得票数 1
点击加载更多
相关
资讯
浅谈CPU 并行编程和 GPU 并行编程的区别
GPU并行编程有哪些优点?
kubernetes容器+GPU并行编程实践研讨会
Tensorflow入门教程(九)——Tensorflow数据并行多GPU处理
多GPU环境下的卷积神经网络并行算法
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券