腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
在
图形
处理器
上
运行时
的
TensorFlow
内存
使用
:
为什么
看起来
不是
所
有的
内存
都被
使用了
?
、
、
、
、
这是我在这里发布
的
问题
的
后续内容: 我
使用
TensorFlow
在
Python中构建了一个CNN模型,并在NVIDIA GRID K520
图形
处理器
上
运行。它在64x64图像
上
运行良好,但在128x128图像上会产生
内存
错误(即使输入只有1张图像)。
在
中,我可以看到GRID K520有8 8GB =7.45G
内存
。当我开始运行我
的
代码时,我还看到了输出:Total
浏览 11
提问于2018-02-11
得票数 5
1
回答
MXNet -如何防止满
内存
分配
有没有办法防止为MXNet分配全部
的
GPU
内存
?因此它只分配它需要
的
内存
,而
不是
整个GPU
内存
。我想在与MXNet相同
的
图形
处理器
上
使用
Tensorflow
/ MXNet中
的
另一个模型,似乎整个
内存
都被
GPU保留了。
浏览 10
提问于2019-02-21
得票数 2
回答已采纳
1
回答
我是否
在
使用
gpu进行培训?
、
、
、
我正在训练一个神经模型,
使用
keras和
tensorflow
作为后端。GPU (device: 0, name: GeForce GTX 1080, pci bus id: 0000:65:00.0, compute capability: 6.1) 这是否意味着训练是
在
gpu
上
执行
的
?我会说是,但是当我执行nvtop时,我看到所
有的
图形
处理器
内存
都被
使用了
,而
图形
处理器<
浏览 26
提问于2019-02-13
得票数 3
1
回答
使用
Ray Tune进行
的
每隔一次尝试时
内存
不足
、
、
我正在
使用
ray tune调优超参数。该模型是
在
tensorflow
库中构建
的
,它占
用了
大部分可用GPU
内存
。我注意到每隔一秒
的
调用报告
内存
不足error.It
看起来
内存
正在被释放,你可以
在
图形
处理器
内存
使用
率图中看到,这是两次连续调用之间
的
时刻,在这两次调用之间发生了OOM错误。我补充说,
在
浏览 90
提问于2021-01-15
得票数 2
回答已采纳
1
回答
尝试
使用
NVIDIA Geforce 920M运行
Tensorflow
代码
、
、
我一直
在
尝试
使用
我
的
NVIDIA
在
Jupyter Notebook
上
使用
Tensorflow
运行代码。我
的
tensorflow
代码不能在
TensorFlow
2.0版本
上
运行,所以我必须安装以前版本
的
Tensorflow
。我安装了CUDDA9.0,
tensorflow
_ GPU -1.12.0和cuDNN 7,但它不工作,然后我尝试安装
te
浏览 27
提问于2020-03-23
得票数 0
1
回答
如何挑选/配置AWS GPU实例来加速
TensorFlow
.keras?
、
、
、
、
我有一个LSTM tf.keras模型,包含大约600MB
的
训练数据。每个训练周期大约需要90秒。我有
tensorflow
的
最新版本,是v2.2。它在AWS g3.4xlarge实例
上
运行。该实例采用Nvidia
的
Tesla M60
图形
处理器
,并具有8 8GB
的
内存
供
图形
处理器
使用
。 我想做超参数调优,所以我需要加快执行速度。因此,我将模型和数据移动到一个AWSp3.2xlarge
浏览 0
提问于2020-06-20
得票数 0
1
回答
无法连接到GPU
运行时
、
、
有没有人找到了稳定访问GPU
运行时
的
方法?并检查是否启
用了
GPU:tf.test.gpu_device_name() 然而,我得到了'',尽管
在
30次中有一次我能够连接。
浏览 1
提问于2018-02-08
得票数 1
1
回答
如何将来自多个模型
的
所有计算放到GPU中
、
、
现在,我
在
GPU
上
运行MTCNN(
在
Tensorflow
上
实现)进行人脸识别。 由于MTCNN
使用了
三种模型,PNet,RNet,ONet,以及它们之间,运行了一些步骤
的
NumPy。因此,我认为只有PNet、RNet和ONet模型可以
在
图形
处理器
上
运行,其他NumPy步骤将在中央
处理器
上
运行。然后,它会将输出从GPU
内存
复制到主
内存</e
浏览 47
提问于2019-02-06
得票数 1
1
回答
分配器(GPU_0_bfc)
内存
不足keras:我可以清理
内存
或执行一些垃圾收集器吗?
、
我
在
tensorflow
上
使用
keras,并且我有一个回调on_epoch_end,我在其中计算一些自定义指标。我最近刚刚启
用了
tensorflow
的
图形
处理器
,
在
几个时期之后,我得到了Allocator (GPU_0_bfc) ran out of memory错误。我试图寻找一个解决方案,但这一切都是关于减少批处理大小或设置一些
图形
处理器
管理标志,我尝试了没有成功,即使将批处理
浏览 20
提问于2021-08-26
得票数 0
1
回答
OpenCL:读取Nvidia显卡硬件
上
的
可用
内存
(OpenGL扩展?、Cuda
运行时
?)
、
、
我正在用OpenCL实现一个复杂
的
算法,但是我
在
NVidia硬件
上
遇到了一个问题。当我
的
算法被多次并行调用时,NVidia
图形
处理器
上
的
内存
不足,随机线程
的
执行可能会因MemoryAllocation错误而停止(我之前曾尝试在上解释过这一点)。我目前
的
解决方案是请求GPU
上
的
可用
内存
,只有在有足够
的
内存
时才允许
浏览 0
提问于2017-09-27
得票数 0
1
回答
为什么
Keras没有
使用
完整
的
GPU
内存
?
、
、
似乎我有一个人为
的
限制,
使
我无法
使用
全部
的
图形
处理器
内存
,但我
的
config.gpu_options.per_process_gpu_memory_fraction没有设置任何限制。有没有人知道还有什么可能会阻止我
使用
全部
内存
?我将在下面解释
为什么
我认为我被阻止
使用
全部
内存
。 我有一个非常大
的
Keras模型,有一个
Tensorflow</
浏览 0
提问于2018-09-13
得票数 0
1
回答
CUDA错误:
内存
不足- Python进程
使用
所有GPU
内存
、
、
、
即使
在
重启机器后,python3进程(系统范围
的
解释器)仍
使用
>95%
的
GPU
内存
。请注意,即使没有正在运行
的
训练脚本,
内存
消耗也会保持不变,而且我从未在系统环境中
使用
过keras/
tensorflow
,只
在
venv或docker容器中
使用
过。更新:最后一个活动是执行具有以下配置
的
NN测试脚本:
tensorflow
==1.14.0 Keras==
浏览 101
提问于2019-12-17
得票数 2
回答已采纳
2
回答
当
使用
tensorflow
分布式时,当sever.join ()
、
、
我
在
Ubuntu
的
一个四路GTX1070
上
运行了这个模型,但是当我启动运行该程序
的
终端时,当我输入python ...py --job_name = "ps“--task_index = 0,四个GPUs子层已满,而我没有打开新
的
终端来运行worker,问题出在哪里?
浏览 1
提问于2017-12-14
得票数 0
2
回答
在
训练和测试时间pytorch
上
以不同方式管理
内存
、
、
、
目前,我正在用pytorch编写一个基于U-net
的
分割模型,我想
使用
类似于mobilenet v2
上
引入
的
倒置残差来提高模型
在
cpu
上
的
速度。 然后我意识到模型
在
训练阶段和测试阶段
使用了
更多
的
内存
。虽然模型应该在训练阶段
使用
更多
的
内存
,因为所
有的
中间步骤张量(特征图)
都被
保存了,并且
使用
可分
浏览 1
提问于2019-04-13
得票数 0
1
回答
TensorFlow
iOS
内存
警告
、
、
、
我们正在构建一个
使用
TensorFlow
库执行图像分类
的
iOS应用程序。
使用
我们
的
机器学习模型(91MB,400个类)和
TensorFlow
“简单”示例,我们可以在任何
内存
为1 1GB
的
iOS设备
上
收到
内存
警告。2 2GB
的
机型不会遇到任何警告,而小于1 2GB
的
机型则会完全耗尽
内存
并导致应用程序崩溃。 我们正在
使用
包含
的
主分支
浏览 5
提问于2016-09-01
得票数 1
1
回答
如何从iterator.combinations()创建部分列表?
、
、
、
、
我需要一个列表
的
所有组合
的
长度t
的
一些计算上
的
图形
处理器
。我
使用
X=itertools.combinations(range(n),t)创建了一个迭代器。我需要一次将所
有的
组合传递给
图形
处理器
,所以我
使用
list(X)从迭代器生成所
有的
组合。 对于更高
的
n和t值,我会耗尽
内存
。有没有一种方法可以生成多个较小
的
列表,其中包含所有可
浏览 12
提问于2019-06-16
得票数 0
回答已采纳
2
回答
Tensorflow
的
while循环
在
GPU
上
运行缓慢?
由于未知
的
原因,下面的代码
在
GPU
上
比
在
CPU
上
慢两倍。) print(t1 - t0)注意:通常情况下,GPU运行5秒,CPU运行3秒,
使用
numpy
的
CPU版本仅运行1.5秒。硬件:运行在谷歌Colab
上
的
Tensorflow
代码。
在
本地英特尔酷睿i5-7267U
上</e
浏览 0
提问于2018-06-20
得票数 5
2
回答
为什么
Tensorflow
CNN
使用
太多
内存
?
、
、
、
、
我是深度学习
的
新手,我正在
使用
Tensorflow
训练cnn进行图像识别。训练图像都是128像素* 128像素*3通道。
在
我
的
网络中,有3个卷积层,3个最大池层和1个完全连接层。我有超过18万张带标签
的
图像,所以我决定每批训练4000张图像。然而,训练过程甚至不能在我
的
笔记本电脑
上
运行,因为
内存
不足,所以我尝试
使用
64 it
内存
和2* E5 CPU
的
服务器来训练它。这一次,它可以工
浏览 1
提问于2017-09-11
得票数 0
2
回答
tensorflow
使用
所有GPU
内存
、
我
在
COCO2014(输入图像有形状256, 256, 3)
上
使用
tf.data.Dataset运行网络,并将
tensorflow
会话配置为sess = tf.Session(config=sess_config) 但是所
有的
GP
浏览 0
提问于2019-07-06
得票数 1
回答已采纳
2
回答
Tensorflow
未显示正确
的
可用
内存
量
、
、
、
我一直试图
在
我
的
GPU
上
运行我
的
神经网络,但由于某些原因,
在
创建设备时,
Tensorflow
不会看到全部
的
RAM
内存
,而是专注于2 2GB
的
空闲
内存
。) -> physical GPU (device: 0, name: Quadro K620, pci bus id: 0000:02:00.0, compute capability: 5.0)
图形
处理器
是Windows7
浏览 0
提问于2018-05-25
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
存内计算的3D堆叠内存利用简介
从概念到实践,我们该如何构建自动微分库
北大、微软提出NGra:高效大规模图神经网络计算
TensorFlow技术主管Peter Wardan:机器学习的未来是小而美
北大、微软亚洲研究院:高效的大规模图神经网络计算
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券