腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
torch.cuda.is_available()返回true,但火炬模型仍在CPU上训练
deep-learning
、
gpu
、
torch
我尝试创建一个新环境,如下所示: 我检查了cuda运行良好,我的
gpu
被
检测到,一切似乎都很好。但当我拟合模型时,nvdia-smi在
GPU
上的
占用
率为100%。
浏览 0
提问于2021-03-25
得票数 1
3
回答
matlab中的CUDA错误(所有支持数据自动化系统的设备都很忙)
matlab
、
cuda
我想在matlab 2016a (或matlab 2014)中使用CUDA7.5,例如,我可以通过gpuDevice(
gpu
_id)在matlab中设置
gpu
。但是,在运行了一些与cuda相关的*.m文件之后,当我再次运行gpuDevice(
gpu
_id)时总是会出现以下错误。 在CUDA执行过程中发生意外错误。
浏览 7
提问于2016-08-04
得票数 3
1
回答
在C++应用程序中使用Tensorflow :如何释放图形处理器内存
c++
、
tensorflow
、
memory
、
gpu
应用程序的其他部分需要访问大量的
GPU
内存(与Tensorflow不完全相同)。然而,一旦Tensorflow
被
用于执行推理,它就会
占用
GPU
内存,并在应用程序结束之前不会释放它。理想情况下,在推断之后,我将能够释放Tensorflow使用的
GPU
内存,以允许其他算法使用
GPU
。 还有没有人遇到过这个问题,你找到解决方案了吗?
浏览 6
提问于2018-09-05
得票数 2
1
回答
刚刚切换到TensorFlow 2.1,收到了一些恼人的警告
python-3.x
、
tensorflow
、
keras
、
conv-neural-network
、
tensorflow2.x
x64TensorFlow安装自: pipTensorFlow版本:2.1.0<code>H 111</code>Python版本:3.6.9<代码>H 212<//代码><code>H 113</代码>
GPU
我得到了一个CUDA_ERROR_OUT_OF_MEMORY,我解决了这个问题 physical_devices = tf.config.experimental.list_physical_devices('
GPU
Set TF_E
浏览 1
提问于2020-04-06
得票数 3
1
回答
深度学习CNN吃VRAM
tensorflow
、
deep-learning
、
neural-network
、
conv-neural-network
我最近开始构建自己的小型深度学习设备,配备了ryzen 53600处理器、32
GPU
内存和8gp VRam的RTX2080Super 使用tensorflow处理CNN(这是我的大部分工作)时,我发现大部分VRam几乎立即被
占用
(7.8
GPU
中使用了7.8
GPU
),而
GPU
利用率约为35% 为了与tesnofrflow v2兼容,我安装了最新的驱动程序并运行了CUDA v10.0。
浏览 33
提问于2020-01-31
得票数 0
回答已采纳
1
回答
分布式Tensorflow:因OOM而死亡的工人
tensorflow
、
deep-learning
task:%d" % FLAGS.task_id,该机器有4个
GPU
ps作业仅在CPU上运行,两个worker作业运行在两个不同的
GPU
上。这两个工作任务的内存
占用
逐渐增加,直到大约3000步,主要工作人员
被
OOM杀死(两名工人在崩溃前
占用
了大约49%的RAM )。ps作业
占用
的空间要小得多。我尝试过禁用摘要操作、模型保护程序、变量平均化
浏览 6
提问于2016-05-24
得票数 0
回答已采纳
1
回答
当我的程序退出时,如果我删除顶点缓冲区对象失败,会发生什么?
opengl
、
vbo
在程序崩溃或
被
终止的情况下,程序不能删除VBO,VBO会发生什么情况?它是否会一直保存在
GPU
RAM中直到计算机重新启动,或者
GPU
最终会恢复VBO
占用
的内存吗?
浏览 2
提问于2011-10-13
得票数 8
回答已采纳
3
回答
45分钟开机
boot
它在循环中停留了45分钟,试图检测
GPU
:===========================================================main_arch_path x86_64-
linux
-gnu, other_arch_path i386-
linux
-gnu Cu
浏览 0
提问于2015-11-11
得票数 3
1
回答
实际的图形处理器内存使用率与glDeleteXXXX?
opengl
、
memory
、
graphics
、
game-engine
GPU
驱动程序是否必须按需从应用程序释放
GPU
内存?如果不是,是否会使应用程序可能想要做任何
GPU
内存资源管理无效,因为它是从实际内存中“移除的层”? 我分配了很多纹理,然后释放它们。当分配时,我可以看到"
GPU
系统字节“(在进程资源管理器中)迅速增加(数量大大超过了图像的硬盘空间-也许它们在
GPU
中是解压缩的,所以
占用
了很多空间)。当释放纹理时,我可以看到Texture2D对象析构函数正确地调用了glDeleteTexture,但似乎在"
GPU
系统
浏览 3
提问于2017-03-23
得票数 0
1
回答
使用系统RAM代替
GPU
内存的
GPU
上的神经网络
python
、
deep-learning
、
neural-network
、
pytorch
有少量的
gpu
内存
被
使用,但不是很多。当我运行同样的程序时,但这次是在cpu上,它只
占用
我的内存900mb。有人能告诉我为什么会这样吗?我已经附上了我的代码,以及一些截图。if (epoch + 1) % 10 == 0: print(f"epoch: {epoch + 1}, loss: {loss:.30f}") 在图形处理器上运行时:
GPU
浏览 18
提问于2021-04-01
得票数 0
回答已采纳
2
回答
同时使用两个
GPU
调用cudaMalloc时性能不佳
cuda
、
parallel-processing
、
thrust
、
gpu
、
multi-gpu
我有一个应用程序,在这个应用程序中,我将处理负载分配给用户系统上的
GPU
。基本上,每个
GPU
都有CPU线程,当主应用程序线程周期性地触发
GPU
处理间隔时,会启动
GPU
处理间隔。如您所见,
GPU
处理时间的很大一部分是由两个排序操作
占用
的,我正在为此使用推力库(thrust::sort_by_key)。不用说,这大大降低了我的应用程序的速度,这是理所当然的,这个问题只会在超过2个
GPU
的情况下变得更糟。 我在
Linux
和Windows上注意到了这种行为。在
浏览 11
提问于2013-10-05
得票数 6
回答已采纳
1
回答
快速视频流编码器
video
、
stream
、
encoding
这不是具体的ubuntu/
linux
问题,但我希望有人能帮助我。 我正在做一些视频流服务器的慢PC (CPU 1 1GHz,坏
GPU
(via))。有人知道我该用哪个编解码器吗?源为720x576 YUV (PAL),太大而不能直接流(
占用
了100 took的局域网带宽)。我想得到流caa 200 be /S,这样它也将适合在互联网上。
浏览 0
提问于2011-02-24
得票数 3
回答已采纳
8
回答
如何使用CUDA刷新
GPU
内存(物理重置不可用)
cuda
、
gpgpu
、
remote-access
在内存
被
刷新之前,我的CUDA程序在执行期间崩溃了。结果,设备内存仍然被
占用
。因此,问题是-在这种情况下,有没有办法刷新设备内存?
浏览 10
提问于2013-03-04
得票数 68
回答已采纳
1
回答
GPU
程序效率的测量
performance
、
gpu
我有使用
GPU
的串行和并行程序。串行程序需要112.9秒才能完成。在
GPU
上的并行程序运行时间为3.16秒。因此,我的加速比为35.73。
浏览 2
提问于2014-05-03
得票数 0
1
回答
cudaMemsetAsync奇怪行为
concurrency
、
cuda
、
overlap
在CUDA中,当重叠数据传输和内核执行时,我观察到一种奇怪的行为。下面给出了部分代码,并作了一些更改。 for (d = 0; d < TOTAL; ++d){ fo
浏览 0
提问于2014-06-22
得票数 1
回答已采纳
1
回答
Tensorflow
GPU
应用程序崩溃木星笔记本内核
python
、
jupyter-notebook
、
tensorflow
我们使用多台木星笔记本在
GPU
上运行Tensorflow应用程序。每隔一段时间,其中一个运行就会崩溃笔记本,只需简单地通知“内核崩溃了.”。parent()->GetConvolveAlgorithms(&algorithms)在另一次运行中,stderr报告:问题是,tensorflow应用
浏览 3
提问于2017-06-30
得票数 0
2
回答
当使用tensorflow分布式时,当sever.join ()
python
、
tensorflow
、
distributed
我在Ubuntu的一个四路GTX1070上运行了这个模型,但是当我启动运行该程序的终端时,当我输入python ...py --job_name = "ps“--task_index = 0,四个GPUs子层已满,而我没有打开新的终端来运行worker,问题出在哪里?
浏览 1
提问于2017-12-14
得票数 0
2
回答
CUDA:内核性能对
占用
的依赖关系
performance
、
cuda
我正在使用CUDA在
GPU
(Fermi)上做有限差分计算(模板计算)。当我使用CUDA分析器测试我的代码时,我发现这个用户是0.333。在我命令计算并将
占用
增加到0.677之后,内核的执行时间并没有减少,而是增加了。换句话说,当乘员
被
1/3增加时,性能就会下降。内核的性能是否取决于计算,而不管
占用
率如何?
浏览 2
提问于2011-07-14
得票数 2
回答已采纳
2
回答
Google引擎
GPU
的利用
tensorflow
、
google-cloud-platform
、
google-cloud-ml-engine
如果我在Google引擎工作中使用--规模级基本
GPU
,我如何查看
GPU
的利用率?我可以在“作业详细信息”选项卡上查看CPU利用率和内存利用率,但我想知道
GPU
被
使用了多少。这仅仅包含在CPU使用中,还是有另一个选项卡可以查看
GPU
的利用率? 此外,是否有任何方法可以查看哪些操作系统
占用
了大部分CPU使用?
浏览 2
提问于2017-08-23
得票数 5
回答已采纳
1
回答
我如何通过使用数据自动化系统( CUDA )来知道
GPU
已关闭PCIE?
linux
、
linux-kernel
、
cuda
、
gpu
、
linux-device-driver
现在,我需要监测
GPU
是很好的工作上的ubuntu18.04。内核或CUDA提供的监控
GPU
的方式是否与netlink中的NETLINK_KOBJECT_UEVENT类似,它可以使用epoll()立即获得USB热插拔事件?或者在
linux
系统中NVIDIA
GPU
设备文件在哪里,一旦
GPU
被
插入,因为我认为我可以通过检查设备文件是否定期存在来完成这项工作。
浏览 17
提问于2022-10-26
得票数 -2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Tensorflow 占用GPU的相关设置
linux 查看磁盘空间占用情况
Linux操作系统下,CPU飙升,你要注意有可能被挖矿程序占用了
Linux 中如何查询端口被占用的情况
Linux中如何查询端口被占用的情况
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券