首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >@cuda.jit与@jit之间的差异(target=‘gpu’)

@cuda.jit与@jit之间的差异(target=‘gpu’)
EN

Stack Overflow用户
提问于 2016-03-09 11:15:41
回答 1查看 8K关注 0票数 5

关于如何使用Continuum加速包和numba包的Python库,我有一个问题。是在target = gpu中使用与@cuda.jit相同的装饰符@cuda.jit

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2016-03-09 21:01:43

不,它们是不一样的,虽然最终编译到PTX到汇编程序的路径是。@jit装饰器是通用的编译器路径,可以选择引导到CUDA设备上。@cuda.jit装饰器实际上是连续分析所发展的底层Python核心方言。因此,您可以获得对CUDA内置变量(如threadIdx )和内存空间说明符(如__shared__ in @cuda.jit )的支持。

如果您想用Python编写一个CUDA内核并编译并运行它,请使用@cuda.jit。否则,如果您想要加速现有的Python部分,请使用@jit和一个CUDA目标。

票数 9
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/35890045

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档