腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
为什么
在
tensorflow
中
使用
多
GPU
时
,
gpu
内存
使用率
会有
很大
不同
?
python
、
tensorflow
我
使用
的是
Tensorflow
1.4.0,两个gpus训练。
为什么
两个
gpu
的
内存
使用
会有
很大
的
不同
?Process | +-------------------------------+----------------------+----------------------+
GPU
4
使用
的图形处理器
内存
是
GPU
5的两倍。我认为两个
gpu
浏览 34
提问于2019-02-28
得票数 1
2
回答
如何
使用
Tensorflow
对象检测API启用
多
GPU
训练
tensorflow
、
deep-learning
我正在尝试
使用
TensorFlow
对象检测应用编程接口执行
多
GPU
训练。 我
在
我的NVIDIA-SMI中看到的是,实际上只有1个
GPU
被
使用
。提供的其他3个
GPU
加载了
GPU
进程,但
内存
使用率
为300MB,利用率始终为0% 我
使用
在COCO上预先训练的基于固态硬盘MobileNetV1的网络,然后用我的自定义数据集对其进行训练。我希望当我为
Tensorflow
提供
浏览 49
提问于2019-10-09
得票数 3
1
回答
我们是否可以指定最大绝对
GPU
内存
使用
量
python
、
tensorflow
Tensorflow
允许指定进程
使用
的最大部分
GPU
内存
:import keras
使用
上面的代码,我的代码最终消耗了大约2203MB/7982MB的
GPU
RAM。现在我的代码有时会在各种
不同
的
GPU
上执行。并且<em
浏览 2
提问于2020-02-06
得票数 0
1
回答
如何限制
tensorflow
GPU
内存
的
使用
?
python
、
tensorflow
、
gpu
我
使用
了
tensorflow
-
gpu
1.13.1
在
Ubuntu18.04与CUDA 10.0
在
Nvidia GeForce RTX 2070 (驱动版本: 415.27)。下面的代码用于管理
tensorflow
内存
的
使用
。我有大约8Gb的
GPU
内存
,所以
tensorflow
不能分配超过1Gb的
GPU
内存
。但是,当我
使用
nvidia-smi命令查
浏览 1
提问于2019-04-05
得票数 3
回答已采纳
1
回答
我的
tensorflow
默认
使用
我的
GPU
而不是CPU,这比CPU慢了10倍。我如何解决这个问题,并让它
使用
CPU?
tensorflow
、
anaconda
我有一台带有独立
GPU
和专用
GPU
的游戏笔记本电脑(NVIDIA GeForce RTX 3070)。我认为这种缓慢的原因是因为
tensorflow
可能运行在专用
GPU
上,因为当我禁用专用
GPU
时
,训练时间会加快10倍。
使用
专用
GPU
的
在
浏览 4
提问于2022-07-29
得票数 0
1
回答
tensorflow
多
GPU
训练
python
、
ubuntu
、
tensorflow
、
deep-learning
我按照
tensorflow
1.2.0:上的教程创建了一个
多
GPU
训练系统
在
创建
多
GPU
版本之前,我能够
在
单个
GPU
上容纳64个批处理大小。我想如果我按照上面的教程创建一个
多
GPU
版本的代码,我可以通过数据并行化来适应更多的批处理。我希望
使用
4个GPUS,每个GPUS的批处理大小为64,但我面临
内存
不足的问题。在这两种情况下
使用
更多的GPUS
时
浏览 18
提问于2017-06-28
得票数 1
1
回答
TensorflowJS:同时训练多个模型(以提高性能)
tensorflow.js
在
我的项目中,我正在训练许多小图形。鉴于这项工作是如何在
GPU
上完成的,并且
GPU
的运行速度只有5%,同时训练许多图形以提高性能是否有意义?我只是有点担心,因为我知道JS并不是一种真正的线程语言。
浏览 0
提问于2018-06-28
得票数 0
1
回答
在
iPython
中
运行
tensorflow
会话
时
,当退出iPython
时
,
GPU
内存
使用率
仍然很高
python
、
tensorflow
、
ipython
问题很简单: 我猜iPython
在
退出
时
没有清理
Ten
浏览 3
提问于2017-06-28
得票数 0
回答已采纳
1
回答
使用
TensorFlow
训练图像
时
出现图形处理器错误
tensorflow
、
gpu
当我
在
容器
tensorflow
/
tensorflow
:latest-
gpu
中
运行
tensorflow
图像训练作业
时
,它不工作。node InceptionV3/InceptionV3/Conv2d_1a_3x3/Conv2D (defined at /usr/local/lib/python2.7/dist-packages/
tensorflow
=t
浏览 2
提问于2018-11-26
得票数 0
1
回答
如何测量
TensorFlow
机型的图形处理器
内存
使用率
python
、
tensorflow
、
gpu
我的目标是弄清楚
在
推理过程
中
,保存为.pb文件的
TensorFlow
模型
使用
了多少
GPU
内存
。通过将per_process_
gpu
_memory_fraction限制为值0.01并在输入图像上成功运行模型,我预计
内存
使用
量为120MB (基于12,000MB
GPU
)。conf = tf.ConfigProto() conf.
gpu
_options.per_process_
gpu
_
浏览 59
提问于2020-01-07
得票数 2
4
回答
与
GPU
的google col堕胎` `ResourceExhaustedError`‘
tensorflow
、
google-colaboratory
我正在尝试
使用
Vgg16微调一个colaboratory模型,但是我
在
使用
GPU
进行训练
时
遇到了这个错误。OOM when allocating tensor of shape [7,7,512,4096] INFO:
tensorflow
:Error reported to Coordinator: <class'
tensorflow
.python.framework.errors_impl.ResourceExhaustedError'>
浏览 1
提问于2018-01-29
得票数 7
回答已采纳
2
回答
获取错误“资源耗尽:当分配形状为[1800,1024,28,28,28]的张量,并在/job上键入浮动
时
:localhost/.”
tensorflow
、
out-of-memory
、
tensorflow2.0
、
object-detection
、
object-detection-api
当我的对象检测
Tensorflow
2.5
GPU
模型启动训练
时
,我得到了一个资源扩展错误。我
使用
了18张训练图像和3张测试图像。我正在
使用
的预训练模型是来自
Tensorflow
动物园2.2的更快的using ResNet101 V1 640x640型号。我正在
使用
一个带有8GB专用
内存
的Nvidia RTX 2070来训练我的模型。 我感到困惑的是,
为什么
训练过程
在
训练集如此小的时候占用了
GPU
的这
浏览 4
提问于2021-10-12
得票数 1
回答已采纳
11
回答
如何解决
TensorFlow
中
gpu
内存
不足的问题
tensorflow
我
在
TensorFlow
中
运行了MNIST演示程序,其中包含两个conv层和一个完整的层,我收到了一条消息,“
内存
用完了,试图分配2.59GiB”,但是它显示总
内存
为4.69GiB,空闲
内存
为3.22GiB对于更大的网络,我如何管理
gpu
内存
?我只关心如何最好地利用
gpu
内存
,并想知道它是如何发生的,而不是如何预先分配
内存
。
浏览 14
提问于2016-04-29
得票数 50
回答已采纳
1
回答
GPU
与RAPIDS
中
CPU
内存
的
使用
python
、
pandas
、
memory
、
rapids
我知道
GPU
和CPU都有自己的
内存
,但我不明白的是,
为什么
在
熊猫和急流cuDF中加载相同的数据帧
时
,
内存
的
使用
会有
很大
的
不同
。有人能解释一下吗?
浏览 4
提问于2022-09-19
得票数 0
回答已采纳
1
回答
为什么
tf.keras model.fit()初始化需要这么长时间?如何对其进行优化?
python-3.x
、
tensorflow
、
tf.keras
使用
tensorflow
.keras (支持
GPU
的2.0-Alpha0),我
在
新编译的模型和之前保存和重新加载的模型上
使用
tf.keras.model.fit()的初始化时间都非常长。我相信这是
在
tf.data.Datasets()已经加载和预处理之后,所以我不明白
为什么
花了这么长时间,并且TF/Keras没有输出: 2019-04-19 23:29:18.109067:
tensorflow
/core/common_r
浏览 98
提问于2019-04-20
得票数 11
1
回答
Tensorflow
:将CUDA_VISIBLE_DIVICES设置为
不同
值
时
,
GPU
util差异
很大
tensorflow
、
object-detection
、
tensorflow-gpu
Linux: Ubuntu16.04.3LTS(GNU/Linux4.10.0-38-generic x86_64)
GPU
: 4xP100 我正在尝试新发布的对象检测教程培训程序我注意到,当我将CUDA_VISIBLE_DEVICES设置为
不同
的值
时
,
会有
很大
的差异。具体来说,当它设置为"
gpu
:0“
时
,
gpu
util相当高,比如80%-90%,但当我将其设置为其
浏览 7
提问于2017-11-05
得票数 0
2
回答
用
GPU
实现
Tensorflow
的错误
gpgpu
、
tensorflow
我尝试过许多
不同
的
Tensorflow
示例,它们
在
CPU上工作得很好,但是当我试图
在
GPU
上运行它们时会产生相同的错误。137] 0: Y Y I
tensorflow
/core/common_runtime: 0000:0a:00.0) I
浏览 6
提问于2015-12-29
得票数 18
1
回答
Tensorflow
如何支持Cuda流?
tensorflow
Tensorflow
是自动利用Cuda流在单个
GPU
上并行执行计算图,还是应该手动将流分配给操作/张量?
浏览 4
提问于2016-03-19
得票数 13
回答已采纳
1
回答
使用
Keras (
Tensorflow
后端)与移动
GPU
(膝上型电脑)
python
、
keras
、
tensorflow
如果我只
使用
Tensorflow
代码,
GPU
的
使用率
就会超过80%,温度也会上升很多。但是如果我
使用
Kers,
使用率
会下降到15%。另外,
使用
Keras不能达到
GPU
的最大时钟。
为什么
在
移动(膝上型电脑)上
使用
Kers
时
,我的
GPU
使用率
这么低?当我
在
笔记本电脑上
使用
Keras
时
,我能做些什么
浏览 3
提问于2017-09-26
得票数 0
回答已采纳
1
回答
与max_queue_size、workers和use_multiprocessing一起
使用
keras /fit_生成器
python
、
tensorflow
、
keras
我对如何在max_queue_size、workers和use_multiprocessing中
使用
感到困惑。谁能给我举个例子,说明如果你有,你会怎么
使用
以下是基于这三个领域的不科学猜测而
使用
它的方法。
浏览 5
提问于2019-11-13
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PyTorch&TensorFlow跑分对决:哪个平台运行NLP模型推理更快
深度学习、GPU计算及分布式机器学习原理简介
北大、微软亚洲研究院:高效的大规模图神经网络计算
北大、微软提出NGra:高效大规模图神经网络计算
IBM全新机器学习库SnapML:训练提速46倍,40亿样本仅需91.5秒
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券