腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
计算
优化实例与
加速
计算
实例的区别
amazon-web-services
、
amazon-ec2
我刚接触过AWS,遇到了这两种情况,但我不明白它们之间有什么区别--它们看起来是一样的--有人能解释这一点吗
加速
计算
实例使用硬件
加速
器或协处理器,以比在CPU上运行的软件更有效地执行某些功能这些函数的例子包括浮点数
计算
、图形处理和数据模式匹配. 在
计算
中,硬件
加速
器是一个可以
加速
数据处理的组件。
加速
计算
实例是工作负载(如图形应用程序、游戏流和应用程序流)的理想选择。
计算</e
浏览 5
提问于2021-09-11
得票数 0
2
回答
Cupy中的慢
GPU
比较
python
、
numpy
、
gpu
、
cupy
.我的问题是这个操作非常慢:%timeit u < 2.给我的
计算
机上26微秒。它比我在CPU中得到的要大一个数量级。我怀疑是因为你必须被投到CPU上.
浏览 0
提问于2019-02-19
得票数 0
3
回答
Ax=B中A是openCL中稀疏矩阵的求解
opencl
、
sparse-matrix
我不想
计算
A的逆,因为它非常大,密度很大。A矩阵>90%稀疏,仅
计算
x可能会大大减少内存和
计算
密集
型
。 下面的文章将帮助我在CPU上,看起来是一个不错的选择,但我真的需要这个应用程序的
GPU
加速
。
浏览 11
提问于2013-08-25
得票数 2
回答已采纳
1
回答
(硬件
加速
)
drivers
、
video
、
vlc
我一直认为硬件
加速
是不好的,因为如果要正常/顺利地播放视频,必须在播放器中打开硬件
加速
,这意味着您的CPU是弱的。因此,如果我在Vlc或任何其他玩家必须使用硬件
加速
(在Ubuntu上为Nvidia),这意味着我的CPU是weak.So,是我的意见对还是错?
浏览 0
提问于2015-06-23
得票数 0
1
回答
Azure NCv3和NC T4_v3有什么区别?
gpu
、
azure-vm
尽管有一种解释"The NC 3-系列和NC T4 _v3系列的尺寸是为
计算
密集
型
的
GPU
加速
应用程序优化的,一些例子是基于CUDA和基于OpenCL的应用程序和仿真、人工智能和深度学习。NC T4 v3-系列的重点是基于NVIDIA的Tesla T4
GPU
和AMD EPYC2罗马处理器的推理工作负载。NC 3系列专注于高性能
计算
和以NVIDIA的NC U.为特色的AI工作负载。
浏览 5
提问于2022-10-14
得票数 0
1
回答
为了更有效地使用
gpu
,mat乘数应该有多大?
c++
、
gpu
、
opencl
所以我一直在摆弄OpenCL内核,我试图更好地理解
GPU
加速
,我很好奇人们将如何找到使用
GPU
加速
来代替传统的CPU
计算
在
计算
效率上更高的点
浏览 53
提问于2021-06-25
得票数 0
回答已采纳
1
回答
如何为复杂的智能合同执行在gpus上设置ethereum?
solidity
、
go-ethereum
、
evm
基本上,问题是应用一些
gpu
密集
型
任务,如机器学习算法等,使用智能合同,这是否可能使用任何可用的ethereum客户端,如geth或奇偶校验,这些客户端可以使用任何
gpu
加速
库(如nvidia的cuDNN)来并行处理
gpu
驱动的工作流?
浏览 0
提问于2019-11-14
得票数 0
回答已采纳
1
回答
无法与框架外的视图交互
objective-c
、
uiview
、
xcode4.2
我有一个不在当前主视图中的小UIVIew,我使用下面的代码来显示它: delay:0.0 animations:^{ // menuView.center = CGPointMake(menuView.center.x+213, menuView.center
浏览 0
提问于2012-11-21
得票数 0
1
回答
在android中,硬件和软件GLES 2.0图形选项是什么?
android
、
android-studio
、
graphics
、
virtual
、
avd
有人能向我解释一下在android演播室中硬件和软件GLES 2.0图形选项的用途吗?什么时候选择哪种选择?
浏览 3
提问于2020-09-06
得票数 1
1
回答
移动设备能像桌面浏览器上的画布控件一样工作得很好吗?
html
、
image
、
mobile
、
canvas
我读到一篇文章说,最好在手机上使用img控件,而不是使用画布控件。
浏览 3
提问于2014-07-18
得票数 0
回答已采纳
1
回答
GPU
的性能取决于元素的数量(problem_size)
performance
、
cuda
、
gpu
我正在用CUDA开发
计算
流体力学(CFD)代码。由于我正在单个Tesla K40
GPU
(与Intel Xeon E5 v2 CPU相比)上进行不同问题大小的
加速
测试,
GPU
通过增加问题大小显示出更高的
加速
比。例如,1百万元素的
加速
比为1.5倍,而1千万元素的
加速
比为11倍。 我不知道理论上是什么导致了大问题的高性能?实际上,这也是我在
GPU
上运行的许多科学(特别是流体力学)应用程序中看到的情况。PS:所谓
加速
,是指
GPU<
浏览 3
提问于2016-07-07
得票数 1
回答已采纳
2
回答
使应用程序具有CPU和
GPU
计算
后端的最佳方法是什么?
c++
、
cuda
、
eigen
我想为它制作一个
GPU
计算
后端,同时保持只在CPU上运行和在可用时由MKL
加速
的能力。 问题:以尽可能多的代码共享CPU后端的方式添加了
GPU
计算
后端。实现
GPU
加速
的最简单的方法是使用本征岩浆,但是这是相当有限的,因为在每次操作中都有从主存到
GPU
内存的不必要的副本,这限制了从
GPU
获得的性能增益。知道我将不得不完全抛弃本征并重写应用程序,但是如果没有CPU和
GPU
计算
后端的完全独立的代码路径,那
浏览 4
提问于2014-09-23
得票数 2
回答已采纳
1
回答
如何
计算
CPU和
GPU
混合算法的
加速
比和效率?
performance
、
parallel-processing
、
gpu
、
cpu
我有一个算法,我只使用CPU并行执行,我已经实现了30倍的
加速
比。也就是说,效率等于0.93 (效率=
加速
/核心,即0.93 = 30/32)。要
计算
包括CPU和
GPU
在内的效率,我应该将
GPU
核心的数量加到CPU核心上吗?也就是说,我将使用928个内核来
计算
效率(32 + 448 + 448 = 928)。或者应该以不同的方式
计算
?根据这里所说的,
计算
了
加速
比和效率:
浏览 1
提问于2020-02-19
得票数 1
1
回答
CUDA:减少多媒体数据主机到设备传输造成的开销?
image-processing
、
cuda
、
gpu
、
multimedia
、
large-data
特别是,我希望执行一组操作,如距离
计算
和数据库索引或哈希预处理,可能在
GPU
上
加速
。然而,与顺序处理相比,传输大型特征数组的开销太大,降低了性能。有人能建议一种方法来处理这样大的数据密集
型
任务,并且需要传输大型数据集吗?
浏览 3
提问于2013-10-10
得票数 0
1
回答
在Silverlight 5上使用
GPU
进行通用数学运算
silverlight
、
gpu
、
silverlight-5.0
我正在开发一个浏览器内的Silverlight应用程序,它有一些
计算
密集
型
的操作,例如,每秒运行数百次离散余弦逆变换或快速傅立叶变换。能够将尽可能多的负载转移到
计算
机的
GPU
上将是有价值的。我知道使用像素着色器的Silverlight3和4也有类似的,但大家的共识是,因为Silverlight3/4没有为他们的像素着色器使用硬件
加速
,而且他们的像素着色器语言被限制在2级,如果有的话,它不会带来太多的性能提升然而,据推测,Silverlight 5拥有更广泛的硬件
加速
图形,包括相
浏览 0
提问于2011-09-30
得票数 6
回答已采纳
4
回答
如何使用CUDA通过密集向量积
加速
稀疏矩阵,目前是通过scipy.sparse.csc_matrix.dot实现的?
python
、
matrix
、
cuda
、
gpu
、
sparse-matrix
我的最终目标是在Python中
加速
矩阵向量乘积的
计算
,可能是通过使用支持CUDA的
GPU
。矩阵A约为15k x 15k且稀疏(密度约为0.05),向量x为15k个元素且密集,我正在
计算
Ax。我必须多次执行此
计算
,因此使其尽可能快将是理想的。我目前的非
GPU
“优化”是将A表示为scipy.sparse.csc_matrix对象,然后简单地
计算
A.dot(x),但我希望在连接了几个NVIDIA
GPU
的VM上
加速
这一过程,如果可能的话,只
浏览 9
提问于2018-02-28
得票数 6
1
回答
如何在Ubuntu上为AMD Ryzen移动CPU安装opencl?
ubuntu
、
opencl
、
linux-device-driver
、
amd
、
ubuntu-18.04
我有一个带有AMD Ryzen 52500 u(与集成的radeon 8移动
GPU
)处理器的笔记本,并使用Ubuntu18.04.2。我想在CPU和
GPU
上使用C++运行一些C++
计算
。平台数目2平台供应商台面平台配置文件FULL_PROFILE平台扩展函数后缀MESA设备供应商AMD设备版本OpenCL 1.1Mesa18.2.8 驱动程序18.2
浏览 4
提问于2019-03-25
得票数 3
回答已采纳
1
回答
带有
gpu
加速
的visual代码(或jupyter记事本)上的Tensorflow
python
、
tensorflow
、
visual-studio-code
、
gpu
如何在visual代码(Windows 11)上激活
gpu
加速
,用tensorflow
计算
神经网络?
gpu
= nvidia gtx 1070 ti
浏览 8
提问于2022-06-09
得票数 -1
1
回答
无法在蔚蓝窗口服务器2016中使用
gpu
azure
、
windows-server-2016
、
nvidia
、
gpu
我试图在Azure云上运行一个
GPU
密集
型
应用程序(Lumion)。硬件- NV6_Promo与1xK80
GPU
。任何应用程序,在启动时,无需使用
GPU
即可运行。该系统安装了最新的Nvidia特斯拉驱动程序和DirectX。需要使用像Hyper这样的虚拟机来启用硬件
加速
在组策略中启用图形适配器并不能解决我的问题。安装了Hyper-V;但是,Hyper-V没有显示
GPU
.
GPU
出现在设备管理器中,运行'
浏览 0
提问于2019-05-11
得票数 1
3
回答
Numpy会自动检测和使用
GPU
吗?
python
、
numpy
、
gpu
关于使用Numpy和
GPU
(nvidia GTX 1080 Ti),我有几个基本问题。我是
GPU
的新手,我想确保我正在正确地使用
GPU
来
加速
Numpy/Python。如果有人能给我指点,我会很感激的:
浏览 0
提问于2018-04-02
得票数 62
回答已采纳
点击加载更多
相关
资讯
GPU加速的计算机视觉学习资源下载
龙芯中科:公司GPU后续将继续加入图形加速、科学计算加速、AI加速功能
黄仁勋宣布:NVIDIA GPU为ARM超级计算加速
GPU 高性能计算,加速脑与认知科学发展
NVIDIA发布新的C++数值计算库:支持GPU加速
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券