腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
什么是数据自动化系统和OpenCL?它们是如何和为什么被用于PoW挖掘?
mining
、
proof-of-work
、
nvidia
根据wikipeda的定义: 库达是Nvidia创建的
并行
计算平台和应用程序
编程
接口(API)模型。它允许软件开发人员和软件工程师使用CUDA支持的图形处理单元(
GPU
)进行通用处理,这种方法称为
GPU
(图形处理单元上的通用计算)。CUDA平台是一个软件层,可以直接访问
GPU
的虚拟指令集和
并行
计算元素,用于执行计算内核。OpenCL(开放计算
语言
)是一个跨异构平台执行程序的框架,包括中央处理器(CPU)、图形处理单元(
GPU
)、数字信号处理器(DSP)
浏览 0
提问于2017-07-22
得票数 1
5
回答
是否有运行在
GPU
上的函数式
编程
语言
?
haskell
、
parallel-processing
、
functional-programming
、
ocaml
、
gpu
使用传统的顺序约简方法,将下列图形简化为:(+ 3 (+ 3 4)) ->10(+ (+ 1 2) (+ 3 4)) ->10 据我所知,每种函数式
编程
语言
都使用第一种方法。我认为这主要是因为,在CPU上,调度线程过多地补偿了
并行
裁减的好处。然而,最近,我们开始在
并行
应用程序中使用
GPU
而不是CPU。如果
浏览 2
提问于2014-02-05
得票数 9
2
回答
数据自动化系统是什么样的?它是用来做什么的?有什么福利待遇?那怎么开始呢?
cuda
、
nvidia
、
gpu
(除了给
GPU
编程
之外,还有什么更多的东西吗?)使用CUDA
编程
而不是向CPU
编程
有什么好处? 什么是开始使用数据自动化系统
编程
的好地方?
浏览 3
提问于2011-03-06
得票数 30
回答已采纳
4
回答
我有一个Nvidia图形处理器,我怎么能在上面写代码呢?
cuda
、
gpu
我从来没有真正喜欢过
GPU
,我不是一个游戏玩家,但我知道它们的
并行
能力,我想知道如何开始在一个上
编程
?我记得(在某个地方)有一种CUDA C风格的
编程
语言
。
浏览 1
提问于2010-10-31
得票数 4
回答已采纳
2
回答
OpenCL是什么?
opengl
、
opencl
我一直在四处寻找,但我仍然不确定OpenCL是什么。除了多处理器的东西。我计划很快学习OpenGL (如果它有区别的话),所以我想知道如何/使用哪个方向来学习它。 此外,我还听说了有关数据自动化系统的一些事情,这让我更加困惑。只是寻找一些简单的澄清声明。谢谢。
浏览 0
提问于2011-12-22
得票数 1
回答已采纳
2
回答
Python中
并行
计算的性能低于无
并行
计算
python
、
numba
、
parallels
、
numba-pro
我只是写了一个在Numba上使用list和parallel的例子,如bellow Parallel and No Parallel:<code>A0</code><code>A1</code
浏览 34
提问于2021-03-13
得票数 0
1
回答
在`pytorch`中跨张量广播
arrays
、
gpu
、
pytorch
我使用pytorch作为数组处理
语言
(不是为了传统的深度学习目的),我想知道做“批处理”
并行
的标准方法是什么。想必,通过SIMD
并行
的魔力,这应该可以在大致相同的时间内完成单层svd (在
gpu
上),但如何
编程
呢?
浏览 20
提问于2020-02-17
得票数 1
1
回答
是否有一种用于编译成(大型)神经网络的
编程
语言
?
compiler-construction
、
programming-languages
、
artificial-intelligence
、
neural-network
我之前曾想过,也许应该有(或者已经存在)一种
编程
语言
,它实际上可以编译成一个大型的神经网络,理想情况下,它可以很好地扩展
并行
计算,并且有一些其他的NN特有的优势,比如学习。尽管如此,它似乎有很多限制,并且与递归不太好地工作: 我也在考虑一些特性,比如嵌入式优化功能。我问自己的另一个问题是,当涉及到
并行
执行和性能时,这样的编译程序是否能胜过传统的程序。
浏览 4
提问于2013-02-18
得票数 2
1
回答
intel数组构建块和
GPU
opencl
、
gpu
、
gpgpu
我正在帮助一位朋友完成他的硕士论文,其中涉及使用元
语言
编程
模型(如英特尔数组构建块或MetaOcaml )在多个CPU(如果可能的话是
GPU
)上
并行
化所选择的算法。所以我有一些问题:基于Intel阵列积木的
GPU
并行
编程
2.是否取消了英特尔Arbb,以及英特尔是否还有另外一个软件库支持
浏览 1
提问于2013-04-07
得票数 1
1
回答
是否可以在OpenCL框架下执行MIMD?
parallel-processing
、
opencl
、
nvidia
、
simd
很快我们就会有MIMDGTX300,它可以对多个数据( nVidia )执行多条指令。我想知道OpenCL是否可以执行MIMD?
浏览 2
提问于2009-07-31
得票数 2
回答已采纳
4
回答
GPU
和SIMD有可能在.NET / Java中实现吗?
scala
、
f#
、
clojure
、
jvm
、
clr
像F#、Scala和Clojure这样的函数式
语言
也正在获得吸引力,一个共同的吸引力是这些
语言
中的并发
编程
非常容易。是否有计划让Java或.NET CLR开始提供对
并行
计算硬件资源的访问,以便函数式
语言
能够成熟以利用硬件?有没有人知道微软/甲骨文/开源社区的任何计划/路线图,使他们的虚拟机与新的硬件和
编程
范例保持同步?到目前为止,为了解决反馈问题,
GPU
编程
浏览 97
提问于2011-09-06
得票数 16
1
回答
在加速中调整大小
haskell
、
accelerate-haskell
我一直在试验Haskell的加速,我想知道如何调整一个向量(数组DIM1 a)的大小?我注意到了重塑,但它的源和结果的大小必须相同,但我想要两倍的大小。
浏览 4
提问于2014-03-13
得票数 2
1
回答
数据自动化系统概念的标准
并行
性术语是什么?
cuda
、
terminology
注意:对不起,这不是一个
编程
问题;如果有一个更合适的stackexchange站点,请迁移它(我没有看到任何;这不是理论上的CS)。我正在寻找更少的数据自动化系统的特定术语,某些
GPU
编程
相关的概念。OpenCL有些帮助。我正在寻找一种新的
编程
语言
的“
并行
理论”/研究论文词,而不是实用的关键字。请随时张贴补充和更正。thread-block“-- "group”--想要什么东西shorter"tile"它似乎是一个更通用的词,用于多
浏览 2
提问于2011-07-30
得票数 1
回答已采纳
1
回答
PyCuda -如何在内核中使用用Python
语言
编写的函数?
python
、
parallel-processing
、
multiprocessing
、
kernel
、
pycuda
我想要
并行
化我的Python代码,并且我正在尝试使用PyCuda。到目前为止,我所看到的是,您必须在Python代码中使用C
语言
编写一个“内核”。这个内核就是将要
并行
化的东西。我说的对吗?= cuda.mem_alloc(a.nbytes)# Kernel: __global__, block=(4, 4, 1))cuda.
浏览 1
提问于2018-11-29
得票数 0
1
回答
如何为cuda
并行
编程
提供输入文件?
parallel-processing
、
cuda
、
product
、
dot
我必须在CUDA
并行
编程
模型中实现向量点积,以便利用
GPU
进行计算。我将通过输入文件测试我的代码,输入文件有两个要相乘的向量。我如何给输入文件在cuda
并行
编程
的这个实现?
浏览 13
提问于2019-05-29
得票数 0
1
回答
GPU
并行
编程
C/C++
parallel-processing
、
gpu
我想学习
gpu
并行
编程
的C/C++。我应该使用什么库和编译器。如果他们是开源的,那就太好了。注意:我有一些关于openmp和mpi的练习。虽然它只适用于cpu
并行
编程
。
浏览 4
提问于2017-06-29
得票数 2
回答已采纳
3
回答
CPU和面向
GPU
的代码有什么区别?
game-engine
那么,在编写应用程序时,开发人员是否会编写一些代码段,这些代码段应该转到CPU,而有些代码段应该转到
GPU
或由调度器在运行时决定?
浏览 0
提问于2015-10-18
得票数 2
3
回答
数据自动化系统有汇编
语言
吗?
assembly
、
cuda
另外,我猜想使用汇编
语言
可以更容易地模拟函数指针。除非
GPU
上的程序集与CPU上的程序集完全不同。
浏览 2
提问于2011-09-08
得票数 23
回答已采纳
1
回答
如何在一个内核函数中启动一个新的内核调用?
cuda
我对CUDA
编程
很陌生。现在,我有一个问题要处理:我试图使用CUDA
并行
编程
来处理一组数据集。对于每个数据集,都需要做一些矩阵计算。在1中的每个线程中,我想使用一个新函数,这个函数也像内核一样工作,因为它们是矩阵calc.例如调用M线程
并行
处理矩阵计算。 有人知道这是否可能吗?
浏览 4
提问于2013-10-11
得票数 3
回答已采纳
2
回答
为什么Jacobi方法是在
GPU
上实现的一个很好的候选算法?
parallel-programming
我知道
GPU
有数百个核心,可以同时处理数千个线程,而在Jacobi迭代中,您实际上是在一次又一次地使用相同的数字来更新向量。这就是为什么在
GPU
上实现Jacobi方法是个好主意吗,特别是如果我们有一个非常大的系统,因为我们有那么多的冗余计算? 我想我不太明白为什么Jacobi方法适合
GPU
浏览 0
提问于2014-12-03
得票数 5
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
浅谈CPU 并行编程和 GPU 并行编程的区别
GPU并行编程有哪些优点?
kubernetes容器+GPU并行编程实践研讨会
英特尔推出采用数据并行 C ++ 编程语言的 OneAPI
R语言并行运算
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券