腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
Numba
中
,
如何
调用
运
行在
GPU
上
的
递归
函数
?
、
、
、
、
根据文档,似乎支持
调用
递归
函数
。call_recursive[1,1](d_data) h_data = cuda.to_host(d_data) print(h_data[0]) 在这种情况下,我所要做
的
就是
调用
一个
调用
递归
函数
的
函数
该
函数
调用
自身10次,然后返回一个数字,该数字存储在给定数组
中
并返回给主机。 我期望主
浏览 30
提问于2020-07-24
得票数 2
回答已采纳
2
回答
有没有没有
递归
的
快速排序
的
Python实现?
、
、
、
我试图
在
Python
中
不使用
递归
实现快速排序,但到目前为止,我发现
的
所有参考实现或伪代码都使用
递归
。这样做
的
原因是,我将调整这个非
递归
实现,以运
行在
使用
Numba
的
GPU
上
,并且我不能在那里进行
递归
调用
。 是否有不使用
递归
的
一维数组(例如,Numpy数组或Python列表)
的
快速排序实现?
浏览 46
提问于2021-07-26
得票数 1
回答已采纳
1
回答
Numba
/CUDA -
调用
矢量化库
函数
、
、
、
我想使用
Numba
让
GPU
运行以下定义
的
函数
,该
函数
具有签名:def ppf(p, df, mu, sigma):我不确定这是否相关,但是我注意到,由于这个
函数
是
在
一个单独
的
包
中
定义
的
,所以我不能在装饰器target='cuda'中指定。例如,考虑以下片段: from
n
浏览 5
提问于2022-01-15
得票数 0
回答已采纳
1
回答
Python:
如何
编写在
GPU
上
运行
的
代码?
、
、
、
我已经尝试了相当一段时间来实现在
GPU
上
运行
的
代码,但是没有取得什么成功。我非常感谢有人帮助实施。 让我就这个问题说几句话。图G有N个节点,
在
每个节点x上有一个分布mx,我想计算所有边
的
每一对节点
的
分布之间
的
距离。对于给定
的
对,(x,y),我使用python包
中
的
代码ot.sinkhorn(mx, my, dNxNy)来计算距离。同样,mx,my是节点x和y
上
大小为Nx和Ny
的
向量
浏览 0
提问于2019-05-25
得票数 7
1
回答
这个
numba
函数
的
错误是什么?
、
、
我编写了这个python
函数
,我相信它将被移植到
numba
。不幸
的
是,它没有,而且我也不确定我是否理解错误:Invalid use of getiter with parameters (none).def iterator(N, k): r"""
Numba
implementation of an iterat
浏览 6
提问于2022-03-25
得票数 1
回答已采纳
2
回答
当我
在
CUDA中使用
递归
时,为什么会收到警告?
、
我必须使用CUDA解决
gpu
上
的
代码问题,但是我总是收到堆栈大小
的
警告,因为“
函数
的
名称”不能静态地确定。这是我正在做
的
一个学生项目,这个项目是用C编写
的
,使用CUDA 9.0库,它运
行在
NVIDIA Quadro K5000
gpu
上
。每个线程都必须执行一个
函数
,在这个
函数
中
,有两个相同
函数
的
递归</
浏览 0
提问于2019-01-18
得票数 1
回答已采纳
1
回答
numba
是否
在
功能之间将数据从
GPU
传递到CPU?
、
我习惯于把更大
的
工作分解成更小
的
功能,只要这个
函数
做一个或多或少独特
的
操作。section of codedata = func1(data)data = func3(data) 但是,如果我将这些
函数
转换为通过
numba
(使用@njit装饰符)
在
cuda
上
运行,那么faster...but可能会更快(也就是说,
在
调用
每个
函数
浏览 3
提问于2020-08-28
得票数 1
回答已采纳
1
回答
Renderscript和
GPU
、
我知道Renderscript
的
设计是为了掩盖我正在运行哪个处理器
的
事实,但是有什么方法来编写这样
的
代码吗?这样
的
代码可以
在
支持
GPU
的
设备
上
运行(目前,Nexus 10),它将在
GPU
上
运行吗?有什么方法可以告诉我们脚本
的
函数
正在
GPU
上
运行吗?www.leapconf.com/downloads/LihuaZhang-Mu
浏览 3
提问于2013-06-11
得票数 5
回答已采纳
1
回答
使用
Numba
nopython模式时
的
TypeError
、
、
我是
Numba
的
新手,正在尝试使用nopython模式进行jit编译代码。包含所有代码
的
colab笔记本可以在上找到 我哪里搞错了?请提个建议。
浏览 119
提问于2020-03-03
得票数 1
1
回答
使用numpy矢量化或映射来加速循环- Python NumPy 3D矩阵“摆脱循环”Python问题,蒙特卡罗
、
、
、
我并不是最擅长理解三维数组结构
的
,尽管我知道它实际
上
只是我习惯于
在
(2D)
中
思考
的
普通XxY
的
一个XxY表示。所以,如果你想知道这是什么,这是一个布朗桥(BB)结构,用于蒙特卡罗模拟金融问题。每条路径都被应用到一个模拟
的
价格
中
,随着时间
的
推移随机地“冲击它”,从而产生资产在到期时可能遵循
的
一条潜在路径。因此,我已经看到人们通过NumPy将np.vectorize矢量化,或者使用地图来“平平”一个循环,但我无法想象<e
浏览 2
提问于2021-10-28
得票数 0
回答已采纳
1
回答
为什么
numba
cuda
在
几次召回之后跑得很慢?
、
、
、
、
我
在
实验
如何
使用
numba
内部
的
cuda。然而,我遇到了一些与我期望不同
的
事情。这是我
的
密码@cuda.jit"""Perform square matrix multiplicationfor k in range(A.shape[1]): C[i, j] = tmp 这是我
浏览 4
提问于2018-09-10
得票数 3
回答已采纳
2
回答
nopython模式下
Numba
递归
函数
中
的
错误
、
、
、
、
我想使用nopython模式
在
Numba
中
运行一个
递归
函数
。到现在为止我只会犯错误。这是一个非常简单
的
代码,用户给出一个小于五个元素
的
元组,然后
函数
创建另一个元组,其中添加了一个新
的
元组值(
在
本例
中
是数字3)。这是重复
的
,直到最后
的
元组有长度5。由于某些原因,这是不工作
的
,不知道为什么。编辑:我使用
的
是
Numba</em
浏览 2
提问于2019-04-08
得票数 2
回答已采纳
1
回答
Julia与Python+
Numba
LLVM/JIT编译代码
的
性能比较
、
、
、
、
如果我们假设在
调用
BLAS和LAPACK
函数
时,Julia和Python
的
性能是相同
的
(
在
幕后),那么对于不
调用
BLAS或LAPACK
函数
的
代码,使用
Numba
或NumbaPro时,Julia
的
性能与CPython相比
如何
?Julia
的
旧LLVM是否会阻止
在
较新
的
体系结构
上
实现最佳
的
单指令多路复用,例如Inte
浏览 7
提问于2015-04-10
得票数 15
1
回答
如何
在
GPU
上
并行运行简单
的
for循环
、
、
我希望做一些非常基础
的
事情。我有一段不是我写
的
代码,它执行一些
在
单个数据集
上
运行大约需要10分钟
的
处理。我有50,000个数据集,所以我想利用多个
GPU
来并行运行。我熟悉
如何
在CPU
上
做到这一点,但是我不知道
如何
在
GPU
上
做到这一点。我看到了许多关于
如何
通过
numba
提高
gpu
调用
某些
函数
的
速
浏览 0
提问于2021-02-13
得票数 0
1
回答
为什么
numba
的
表现比使用字符串元组
的
原生python差100?
、
出于性能原因,我想使用来改进我
的
代码
的
性能。但是,
numba
函数
的
性能比原生python
函数
差。有人能解释一下为什么吗?from
numba
import jitdef get_exact_score_with_
numba
/ len(tokens_to_match) tokens_to_match = ('a',
浏览 1
提问于2021-09-25
得票数 1
回答已采纳
1
回答
在
Numba
中
实现cuda gridsync()安全吗
、
、
、
)] (X) 通过将循环放在同一个内核
中
,避免了
gpu
内核
的
设置时间。这里有一种
在
numba
中
执行gridsync()
的
明显方法,所以你会认为人们会使用这种方法,但我找不到任何这样
的
例子。然而,我
在
stackoverflow
上
发现了很多评论--没有解释--试图使用原子计数器在网格
上
同步块是毫无意义
的
,不安全
的
,或者会在竞争条件下死锁。相反,他们建议
在</e
浏览 0
提问于2019-02-10
得票数 0
1
回答
当同时使用
numba
.cuda和CuPy时,为什么从
GPU
传输数据
的
速度这么慢?
、
、
、
我阅读了cupy文档
中
关于
如何
同时使用cupy和
numba
以及
如何
使用cuda加速代码
的
示例。我编写了一个类似的代码来测试它:from
numba
import cudaimport time 0.002993345260620117
在
第一种情况下,out2
的
调用
怎么会这么慢?我正在编写一些
函数</
浏览 3
提问于2020-07-09
得票数 0
回答已采纳
1
回答
numba
没有加速代码
的
编译。
、
、
、
、
我
在
numba
和普通模式下尝试了这段代码,但两者都在13秒内完成,
numba
没有增加速度。from
numba
import jit, cuda@jit(target_backend="cuda") for i
浏览 10
提问于2022-03-11
得票数 0
回答已采纳
2
回答
如何
使用纯python激活google colab
gpu
、
、
、
我是谷歌colab
的
新手。我已经编写了一个类来创建和训练LSTM网络,只使用python -而不是任何特定
的
深度学习库,如tensorflow,pytorch等。我认为我使用
的
是
gpu
,因为我
在
colab中选择了正确
的
运行时类型。 然而,
在
代码执行期间,我有时会收到退出
gpu
模式
的
消息,因为我没有使用它。那么,我
的
问题是:
如何
使用google colab
gpu
浏览 2
提问于2020-03-16
得票数 4
2
回答
为什么CUDA
GPU
矩阵乘法比numpy慢?怎么这么快?
、
、
、
、
我正在发现
numba
的
CUDA扩展,并看了一个
在
cuda
上
实现矩阵乘法
的
例子。代码在上。然后,我用我认为不太理想
的
实现对它进行基准测试:numpy
的
点
函数
,将两个1024x1024矩阵(用randn(1024,1024)生成)相乘。正如一位评论者所问
的
,数组位于32位浮点数
中
。我知道一个3 3GHz
的
CPU不能在5ps内完成一个任务,所以很明显,我指的是平均吞吐量。然而, 我认为主内
浏览 3
提问于2021-08-12
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
加速python科学计算的方法(一)
如何加快循环操作和Numpy数组运算速度!
从头开始进行CUDA编程:线程间协作的常见技术
Numba和Cython如何加速Python代码
用Numba加速Python代码
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券