腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Gunicorn工作者,用于
GPU
任务的线程,以增加并发/并行性。
、
、
、
、
我正在使用烧瓶与Gunicorn实现一个人工智能
服务器
。
服务器
接收HTTP请求并调用该算法(用py手电筒构建)。计算在nvidia
GPU
上运行。在这种
情况
下,我需要一些关于如何实现并发/并行的输入。本机有8 vCPUs,20 GB
内存
,1
GPU
,12 GB
内存
。 1工作人员
占用
,4 GB
内存
,2.2GB
GPU
内存
。(由于
GPU
内存
2.2GB* 5工
浏览 5
提问于2021-02-09
得票数 0
8
回答
如何使用CUDA刷新
GPU
内存
(物理重置不可用)
、
、
在
内存
被刷新之前,我的CUDA程序在执行期间崩溃了。结果,设备
内存
仍然被
占用
。我正在使用
GPU
远程访问Fedora
服务器
,因此物理重置相当复杂。因此,问题是-在这种
情况
下,有没有办法刷新设备
内存
?
浏览 10
提问于2013-03-04
得票数 68
回答已采纳
1
回答
深度学习CNN吃VRAM
、
、
、
我最近开始构建自己的小型深度学习设备,配备了ryzen 53600处理器、32
GPU
内存
和8gp VRam的RTX2080Super 使用tensorflow处理CNN(这是我的大部分工作)时,我发现大部分VRam几乎立即被
占用
(7.8
GPU
中使用了7.8
GPU
),而
GPU
利用率约为35% 为了与tesnofrflow v2兼容,我安装了最新的驱动程序并运行了CUDA v10.0。
浏览 33
提问于2020-01-31
得票数 0
回答已采纳
2
回答
Google引擎
GPU
的利用
、
、
如果我在Google引擎工作中使用--规模级基本
GPU
,我如何
查看
GPU
的利用率?我可以在“作业详细信息”选项卡上
查看
CPU利用率和
内存
利用率,但我想知道
GPU
被使用了多少。这仅仅包含在CPU使用中,还是有另一个选项卡可以
查看
GPU
的利用率? 此外,是否有任何方法可以
查看
哪些操作系统
占用
了大部分CPU使用?我的CPU利用率很高,我的
内存
非常低,而且我的输入生成器总是满的(100%),所以我试图更好地
浏览 2
提问于2017-08-23
得票数 5
回答已采纳
3
回答
Linux
内存
使用历史记录
、
、
我遇到了一个问题,我的
服务器
开始使一些正常的进程和检查失败,因为
服务器
的
内存
完全满了并且被
占用
了。 我
查看
了日志记录历史,发现它杀死的是一些Java进程。我使用"top“命令
查看
当前哪个进程
占用
的
内存
最多(在问题解决后),它是一个Java进程。因此,从本质上讲,我可以知道现在哪些进程
占用
了最多的
内存
。我想知道的是,当故障开始发生时,是否有一种方法可以
查看
哪些进程
占用
了最多
浏览 38
提问于2012-10-24
得票数 9
回答已采纳
1
回答
Python用于训练机器学习模型时的记忆错误
、
、
、
、
我正在使用python 3与nvidia急流,以加快机器学习培训使用孜然库和
GPU
。这是我用来训练孜然模型的代码。中的结果 encoded_data和y_train是numpy数组,encoded_data是n*m浮点数数组,y_train是n*1的整数向量,它们都是标签
浏览 0
提问于2019-06-06
得票数 1
3
回答
TensorFlow:如何测量每个张量所需的
GPU
内存
?
我目前正在用实现TensorFlow,对于
占用
多少
内存
我感到有点惊讶。在我的
GPU
上,我可以使用批处理大小为64的框架来训练YOLO。在TensorFlow上,我只能在批处理大小为6的
情况
下才能这样做,而我已经用光了
内存
。在测试阶段,我可以在不耗尽
内存
的
情况
下以批处理大小64运行。 我想知道如何计算每个张量消耗了多少
内存
?默认
情况
下,所有张量都保存在
GPU
中吗?我可以简单地计算总的
内存
消耗的形状
浏览 15
提问于2016-03-31
得票数 13
回答已采纳
1
回答
深度学习虚拟机:如何释放
内存
?
、
、
、
、
当在google cloud jupyter笔记本上训练时,它崩溃了,因为它无法将输入张量从
GPU
复制到CPU:具体如下: InternalError: Failed copying input tensorfrom /job:localhost/replica:0/task:0/device:
GPU
:0 to /job:localhost/replica:0/task:0/device:CPU:0 in[Op:TensorDataset] 经过研究,当
GPU
中
浏览 166
提问于2021-07-19
得票数 1
1
回答
在C++应用程序中使用Tensorflow :如何释放图形处理器
内存
、
、
、
应用程序的其他部分需要访问大量的
GPU
内存
(与Tensorflow不完全相同)。然而,一旦Tensorflow被用于执行推理,它就会
占用
GPU
内存
,并在应用程序结束之前不会释放它。理想
情况
下,在推断之后,我将能够释放Tensorflow使用的
GPU
内存
,以允许其他算法使用
GPU
。 还有没有人遇到过这个问题,你找到解决方案了吗?
浏览 6
提问于2018-09-05
得票数 2
1
回答
估计服务Keras模型所需的资源
、
、
现在我想估算一下我需要多少资源(CPU、
GPU
、RAM等)。 有没有人有关于函数/经验法则的建议,可以对此有所帮助?我找不到任何有用的东西。提前感谢!
浏览 17
提问于2019-01-20
得票数 2
回答已采纳
1
回答
无论批处理大小,Tensorflow都使用相同数量的
gpu
内存
。
我注意到,无论我使用什么样的批次大小,根据我的nvidia控制面板,我使用的
gpu
内存
的97%。我尝试了100到2的批处理大小,在每种
情况
下,我的
gpu
内存
使用量总是97%。为什么要这么做?
浏览 4
提问于2016-06-12
得票数 6
回答已采纳
1
回答
如何限制tensorflow
GPU
内存
的使用?
、
、
下面的代码用于管理tensorflow
内存
的使用。我有大约8Gb的
GPU
内存
,所以tensorflow不能分配超过1Gb的
GPU
内存
。但是,当我使用nvidia-smi命令
查看
内存
使用
情况
时,我发现它使用了~1.5GB,尽管我用GPUOptions限制了
内存
的数量。memory_config = tf.ConfigProto(
gpu
_options=tf.GPUOptions(per_process_
gpu<
浏览 1
提问于2019-04-05
得票数 3
回答已采纳
1
回答
Tensorflow会话问题(多会话1
gpu
,异步sess.run ?)
、
、
这造成了一个问题,看起来我无法在同一个
gpu
上运行多个会话.有办法这样做吗? 如果不是,我如何实现我的目标,以一个并行的方式运行这些图像只有一个
gpu
?
浏览 1
提问于2018-04-15
得票数 0
回答已采纳
2
回答
如何减少CUDA上下文大小(多进程服务)
、
、
、
、
减少了
GPU
上下文存储现在,回到这个例子。没有议员:议员们:不幸的是,每个进程仍然
占用
几乎相同的
内存
量(~300 of )。有办法降低每个进程的
内存
消耗吗?
浏览 6
提问于2019-12-19
得票数 0
回答已采纳
1
回答
当现代
gpu
内存
耗尽时,如何利用磁盘上的交换空间?
、
、
、
后Pascal 可以分配比
GPU
内存
更多的
内存
,这将自动在
GPU
内存
和主机
内存
之间交换。 创建交换空间:dd if=/dev/zero of=./swapfile bs=1G count=16、mks
浏览 4
提问于2022-10-29
得票数 1
回答已采纳
1
回答
tf.keras.Model.load_weights()捕获到ResourceExhaustedError
、
、
、
when allocating tensor with shape[28224,1024] and type float on /job:localhost/replica:0/task:0/device:
GPU
:0 by allocator
GPU
_0_bfc 如有任何帮助,我们不胜感激!
浏览 14
提问于2018-07-24
得票数 0
1
回答
找出是什么
占用
了我在torch7中的记忆
、
、
、
、
我已经写了一个相当复杂的torch应用程序,如果它不会耗尽
内存
的话,它工作得很好。现在,我试图
查看
是什么类型的输入或
情况
导致它似乎随机地耗尽了
内存
,但到目前为止,我几乎没有成功。我可以通过一个简单的语句在caffe:cuda或caffe:cl上运行我的代码,这会改变我的程序是否在RAM或
GPU
上运行,我想这样的切换将使验证我的
内存
使用变得更容易。我怀疑它们
占用
了大量的
内存
,神经网络,大型矩阵等等)。我已经知道,一旦我确定了谁
占用
了我的
浏览 1
提问于2017-03-30
得票数 0
1
回答
减少Tensorflow中矩阵乘法的
GPU
内存
使用量
、
、
、
输出通过以下方式获得并具有形状仅此操作就需要大约5 5GB的
GPU
内存
。我想知道是否有任何方法可以减少这种
内存
消耗(因为我将来会有更大的矩阵用于相同的操作)。 我尝试了一个变通方法,将a和b都转换为半精度。这也无助于减少
内存
使用量。
浏览 6
提问于2017-03-08
得票数 0
1
回答
内存
不足的
GPU
运行本地tensorflow
、
、
这个错误是一个CUDA_ERROR_OUT_OF_MEMORY,它说当我实际有16 of时,它不能分配3.9GB
内存
。实际上,当我只使用一个工作程序时,错误就解决了,但是我相信它没有使用总
内存
。对不起,我不知道,但是当你用
GPU
运行Tensorflow时,它是使用RAM
内存
还是
GPU
内存
?我应该用CPU运行它吗?可能在AWS?你有什么建议吗?/
gpu
_device.cc:976] DMA: 0 2017-09-16 11:39:56.590546: I te
浏览 7
提问于2017-09-16
得票数 0
2
回答
针对昂贵资源的kubernetes调度
、
、
、
现在我们想用
GPU
节点来扩展它(因此这将是Kubernetes集群中唯一拥有
GPU
的节点)。 我们希望避免Kubernetes在这些节点上调度pod,除非它们需要
GPU
。并不是所有的管道都可以使用
GPU
。绝大多数仍然只
占用
大量CPU资源。 配备
GPU
的
服务器
可能非常昂贵(例如,Nvidia DGX每台
服务器
可能高达150美元/k)。资源,如CPU和
内存
,因此它们将不得不等待非
GPU
作业/容器完成)
浏览 24
提问于2018-12-20
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Linux服务器如何查看CPU使用率、内存占用情况
linux 查看磁盘空间占用情况
通常服务器内存占用多少合理?cpu占用多少才合理?
查看 Linux 系统中进程和用户的内存使用情况
恒讯科技分析:云主机如何查看redis内存使用情况?
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券