腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
用专用NVidia
卡
代替英特尔HD4000的效果
、
、
简短版本:请有人告诉我,在Ubuntu笔记本电脑上添加一张专用的NVIDIA GeForce GT 630 M
卡
的效果如何?在执行一般的生产力任务和启动时,它的耗电量和性能损失率都很高。此外,与对英特尔HD4000的支持相比,这些新
卡
的封闭源代码、开源和大黄蜂驱动程序有多好?
浏览 0
提问于2012-09-04
得票数 0
回答已采纳
1
回答
我想知道
GPU
服务器中的M40 显存是多少的,是12G还是24G能不能标识清楚,只写M40看不懂?
、
、
我想知道
GPU
服务器中的M40 显存是多少的,是12G还是24G能不能标识清楚,只写M40看不懂 [附加信息]
浏览 1587
提问于2018-09-28
1
回答
我如何知道一个
GPU
可以并行执行多少矩阵
运算
?
、
、
使用方式如下:const multiplyMatrix =
gpu
.createKernel(function(a, b) { let sum =但是我注意到,对于
GPU
.js,每个
GPU
对我可以操作的矩阵的大小有一个限制,通常限制在
GPU
支持的最大屏幕分辨率上。因此,如果我不得不猜测,我认为在
GPU
上并行执行的矩阵
运算
的最大数目是7680 x 4320 x3(宽度x高度x3色通道),例如RTX
浏览 10
提问于2020-09-13
得票数 6
5
回答
几核几G的机型可以跑起来tensorflow?
、
请描述您的问题 [附加信息]
浏览 590
提问于2018-05-18
1
回答
一次对一个数据集使用多个
GPU
,而不是在tensorflow中拆分数据集
、
、
、
我知道在训练DNN时,通常使用多个
GPU
的方法是拆分数据集,并将每个拆分的数据集分配给每个
GPU
。例如,我只有一张图片用于数据集。因为我没有多张图片可以拆分并分发给多个
GPU
,所以我希望利用所有
GPU
来为这一张图片的计算做出贡献。 这在Tensorflow中可能吗?我
浏览 0
提问于2017-04-17
得票数 0
1
回答
GPU
与决定论
、
、
、
我在考虑把一些数学
运算
卸载到
GPU
上。由于我已经在使用D3D11,所以我会使用计算机着色器来完成这项工作。但是问题是,无论用户有什么
GPU
,对于相同的输入,我都需要相同的结果。那么,浮点数学在
GPU
上是确定性的吗? 如果没有,
GPU
支持整数
运算
吗?
浏览 3
提问于2014-02-24
得票数 3
回答已采纳
2
回答
使用具有更多流式多处理器的
GPU
卡
、
目前,我使用的是带有2个SM的GeForce
GPU
卡
。我在
GPU
卡
上运行了一些实验,观察到与类似的CPU实现相比,代码的执行速度快了5倍。我很好奇,如果我在功能更强大的
GPU
卡
上运行完全相同的代码,比如Tesla
GPU
卡
,与使用GeForce
卡
时相比,我会获得更好的执行时间吗?若有,原因为何?如果没有,我应该如何修改我的代码(在高级别),因为我希望更强大的
GPU
卡
能给我更多的加速。
浏览 2
提问于2012-08-11
得票数 1
2
回答
OpenCL和多个视频
卡
、
我对
GPU
和
GPU
之间的区别的理解是,
GPU
不是通用处理器,因此如果显卡包含10个
GPU
,则每个
GPU
实际上共享相同的程序指针,并且为了优化
GPU
上的并行性,我需要确保每个
GPU
实际上运行相同的代码。在同一个
卡
上同步不是问题,因为每个
GPU
在物理上是并行运行的,所以它们都应该在同一时间完成。 我的问题是,这如何在多张
卡
上工作?以它们的运行速度,硬件是否会在执行时间上稍有不同,从而使一张
卡
上的一个<e
浏览 2
提问于2012-04-26
得票数 0
回答已采纳
1
回答
如何从进程PID中定位Chrome选项
卡
?
、
我为网页打开了许多Chrome选项
卡
。 每个选项
卡
都有自己的PID。Sl Jun08 188:31 /opt/google/chrome/chrome --type=
gpu
-process --channel=3862.0.1604359319 --supports-dual-gpus=false --
gpu
-driver-bug-workarounds=1,12,42 --disable-accelerated-video-decode --
gpu
-vendo
浏览 0
提问于2015-06-15
得票数 23
1
回答
黑屏,nvidia-modeset :错误:
GPU
:0空闲显示引擎超时
、
、
使用nvidia
GPU
,该系统能够显示主板固件标志和Grub屏幕。在选择Ubuntu版本后,无论是18.04还是20.01,Ubuntu登录屏幕都无法显示。相反,我看到一个黑色的屏幕出现了抱怨nvidia-modeset : ERROR:
GPU
:0 Idling display engine time out三次(见附图),然后是一个纯黑色屏幕与
GPU
不断提高到全速风扇速度和变得非常热📷 这个
GPU
在这件事发生之前就工作得很好。Ubuntu系统能够在
GPU
被移除和Intel CPU的集成图形插入监视器
浏览 0
提问于2021-07-28
得票数 0
回答已采纳
2
回答
对于这个特定的工作负载,您推荐哪一个
GPU
?
我有一个非常特殊的工作负载,需要
GPU
(OpenCL强制性的)加速。然而,据我所知,
GPU
是为浮点计算而优化的,在那里,我需要加速的任务需要大量的整数计算,而那些整数计算分数很难找到。更具体地说(在发送给
GPU
的全部数据中),工作负载包括: 大量内存块传输(1MB至30 MB)从CPU
浏览 0
提问于2020-01-23
得票数 0
回答已采纳
1
回答
TensorFlow:指定并行运行的
运算
数
据我所知,TF会并行调用多个
运算
符,只要它们是独立的。()编辑:b=tf.random_normal([N,N]) c=tf.random_normal(
浏览 3
提问于2017-01-11
得票数 2
1
回答
火炬速度比较-
GPU
比CPU慢
、
我试图找出
GPU
张量
运算
是否比CPU操作快。因此,我在下面编写了这个特定的代码来实现简单的2D添加CPU张量和
GPU
cuda张量,以查看速度差异:import time start_time = time.timetime = ',elapsed_time) 令我惊讶的是,CPU时间是0.93秒,
GPU
时间高达63秒。我是正确地做了库达张量
运算
,还是库达张量的概念只有在非常复杂的操作中才能工作得更快,比如在神经网络中?注:我的
GPU
浏览 1
提问于2018-11-15
得票数 10
4
回答
c#中的高速矩阵
运算
?
、
、
我正在用c#编写一些图像处理代码,需要做一些矩阵
运算
(特别是2D卷积)。我有用matlab写的代码,它使用conv2函数...有没有一个用于C# / .NET的库可以做好的高速矩阵操作?如果它需要一些特定的
GPU
,并在
GPU
上做矩阵数学
运算
,如果这是需要的,我会很好。
浏览 0
提问于2010-05-25
得票数 3
回答已采纳
1
回答
启用OpenGL扩展
、
、
我试图在我的GLSL着色器中执行一些整数
运算
(除法和模
运算
),但它们似乎不起作用,我读到我需要启用EXT_
GPU
_shader4才能获得整数
运算
。然而,我找不到的是如何做到这一点。是这一行:#extension GL_EXT_
GPU
_SHADER4 : require 足够的?或者我也需要以某种方式使用C API启用它?
浏览 2
提问于2013-05-31
得票数 3
回答已采纳
1
回答
Tensorflow-
gpu
、CUDA和cudnn已安装,但
GPU
设备已找到但未使用
、
、
Windows 7 x64 2017-05-30 13:50:33.022124: I C:\...\
gpu
_device.cc:937] 0: Y 2017-05-30 13:50:33.022124: I C:\...\
gpu
_device.cc:969] Ignoring visible <e
浏览 3
提问于2017-05-30
得票数 0
回答已采纳
1
回答
Ubuntu能处理多少个最大
GPU
?
、
我总是听说一个系统上有8个gpus,但现在AMD推出了多达128 pci-e通道的EPYC,plx提供了一种将它乘以"N“的方法,我想知道,除了硬件限制之外,Ubuntu对一个系统中允许的图形
卡
的数量有什么限制吗
浏览 0
提问于2017-06-01
得票数 3
1
回答
Tensorflow使用两块显卡的内存,但训练只在一块显卡上运行
我正在多
GPU
系统(2个
GPU
)上训练神经网络。我只使用了一个
GPU
,但程序使用了两个
GPU
的内存。为了只使用一张
卡
,我使用了这部分代码: with tf.device('/
GPU
:0'): 但是它仍然在使用他们两个人的内存。我该怎么办?
浏览 286
提问于2020-04-17
得票数 0
回答已采纳
2
回答
如何在ffmpeg 3.2.0的多个nvidia
gpu
中选择
gpu
?
、
、
在以前版本的ffmpeg(3.2.0之前)中,我可以使用"-
gpu
0或1 etc“选项来选择特定的
GPU
卡
。但在nvenc.c文件中,没有使用"
gpu
“选项的代码。它是在驱动程序级别完成的吗? 谢谢。
浏览 12
提问于2017-01-31
得票数 1
2
回答
GPU
上32位对64位的哈希算法
我在哪种算法最好由
GPU
破解?中读到,SHA1、SHA224、SHA256等执行32位整数
运算
和逻辑
运算
的哈希算法在
GPU
上实现得更好,而不是在64位整数上工作的SHA512散列算法。
GPU
不能很好地支持使用64位整数的开发?有关这方面的更多信息将是有帮助的。此外,如果有更深入的讨论这方面的参考资料,我想知道。
浏览 0
提问于2012-05-26
得票数 7
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券