腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如
何在
Tensorflow
中
验证
和
分配
GPU
分配
?
、
、
10.1成功运行,现在我想在
Tensorflow
中
运行训练。我想知道训练使用的是哪个
GPU
,所以我尝试了一下: from
tensorflow
.python.client import device_lib device_type: "
GPU
" locality { links { } incarnation
浏览 19
提问于2019-05-01
得票数 0
1
回答
用于递归级联的
TensorFlow
高效共享内存
分配
、
、
、
DenseNets倾向于在
TensorFlow
中
占用大量内存,因为每个连接操作都存储在单独的
分配
中
。最近的一篇文章,,演示了通过共享
分配
可以显着地降低内存利用率。这个文件+ pytorch实现
中
的图像演示了共享内存方法:如何用
TensorFlow
实现这一点?如果它不能通过python完成,那么如
何在
带有CPU
和
GPU
支持的Op中正确地实现呢? 带有“朴素”
分配
的,与
Te
浏览 1
提问于2017-09-08
得票数 10
1
回答
如
何在
代码之外设置
tensorflow
gpu
内存
分配
?
、
、
、
我在用
tensorflow
在火星上。我的
tensorflow
分配
几乎所有
GPU
内存(10
GPU
或12
GPU
)。只有‘导入
tensorflow
’获得所有的内存,我知道如何配置
gpu
内存分数在代码
中
。我知道的方法是添加下面提到的代码
gpu
_options = tf.GPUOptions(per_process_
gpu
_memory_
浏览 4
提问于2017-11-15
得票数 0
回答已采纳
1
回答
Tensorflow
C++设置
GPU
内存碎片并允许增长
、
、
我想在C++
中
设置
GPU
memory fraction
和
allow growth选项,就像在python
中
描述的here一样。这是正确的做法吗?我特别不确定set_allocated_
gpu
_options这一行(在这种情况下,“已
分配
”是什么意思,还没有
分配
任何内容)。
tensorflow
::Session *session = nullptr;
tensorflow
::SessionOptions sessionOptions;
浏览 23
提问于2018-12-17
得票数 2
回答已采纳
1
回答
tensorflow
怎么叫这个设备?
、
、
tensorflow
怎么叫这个设备?以及流如何自动将任务
分配
给设备?
tensorflow
中有接口源代码吗?但我找不到详细的源代码。就像:A= tf.constant(1.0,2.0,3.0,4.0,5.0,6.0,shape=2,3,name='a')C= tf.matmul(a,b) 为
浏览 5
提问于2017-04-11
得票数 0
1
回答
无法理解的类型:模型
中
的“numpy.ndarray”--
tensorflow
、
、
import ImageDataGeneratorimport
tensorflow
as tffrom
tensorflow
.keras.callbacks import EarlyStopping callbacks=[tqdm_callback, early_callback])
浏览 11
提问于2022-03-24
得票数 0
1
回答
GPU
在tf控制估计
中
的应用
、
我有一台云端上有4个
GPU
的机器。我怎样才能使我的tf计数器利用机器上的
GPU
?我能利用所有的估计量吗?
浏览 0
提问于2017-11-01
得票数 3
2
回答
用
GPU
实现
Tensorflow
的错误
、
我尝试过许多不同的
Tensorflow
示例,它们在CPU上工作得很好,但是当我试图在
GPU
上运行它们时会产生相同的错误。/core/common_runtime/
gpu
/
gpu
_init.cc:127] DMA: 0 1 I
tensorflow
浏览 6
提问于2015-12-29
得票数 18
1
回答
Tensorflow
为任何程序
分配
所有内存
操作系统平台
和
发行版(例如LinuxUbuntu16.04):LinuUbuntu16.04 我是坦索弗洛的新手/core/common_runtime/
gpu
浏览 0
提问于2018-04-12
得票数 0
回答已采纳
1
回答
为什么当我
分配
一个以上的
GPU
时,我的
Tensorflow
代码只使用一个
GPU
、
虽然,我
分配
了8个gpus,但其中一个刚刚被占用。我在网站上看到了一些注释,似乎
Tensorflow
会自动使用
gpu
,如果它是适用的,但我仍然不知道如何使用所有的
gpu
。
浏览 0
提问于2021-03-06
得票数 2
1
回答
如何让
Tensorflow
使用多路
GPU
、
我使用
Tensorflow
训练一个具有3个
GPU
的模型。但是,我发现它只使用了1。代码没有任何
GPU
配置,因为我认为
Tensorflow
会自动检测
GPU
并自动将计算
分配
到3个
GPU
中
。从附加的屏幕截图中,当训练程序开始时,检测到3个
GPU
,但温度监视器显示只有1个处于活动状态。 如
何在
训练过程
中
同时使用3个
GPU
?
浏览 21
提问于2017-07-27
得票数 0
1
回答
Tensorflow
/ keras multi_
gpu
_model不分裂为多个
gpu
、
、
、
如果使用来自multi_
gpu
_model的
tensorflow
.keras.utils,则
tensorflow
将在所有可用的
gpu
(例如2)上
分配
全部内存,但如果监视nvidia,则只使用第一个
gpu
正如预期的那样,数据由cpu加载,模型在
gpu
上运行,
gpu
利用率为97% - 100%: 创建multi_
gpu
模型 正如multi_
gpu
_model 的
tensorflow
api所描述的
浏览 0
提问于2019-03-06
得票数 0
2
回答
Tensorflow
:将allow_growth设置为true仍然
分配
所有
GPU
的内存
、
、
、
我有几个
GPU
,但我只想使用一个
GPU
作为我的训练。= True 尽管设置/使用了所有这些选项,但我的所有
GPU
都
分配
内存
和
我怎样才能防止这种情况发生呢Note 当我尝试启动另一个run
浏览 0
提问于2017-12-20
得票数 7
回答已采纳
1
回答
如
何在
TensorFlow
中
自动
分配
空闲
GPU
我的系统中有4个特斯拉K80
GPU
。我想自动
分配
免费
GPU
的基础上,在代码
中
的整数输入。我知道使用tf.config.experimental.set_visible_devices()来
分配
特定的
GPU
,但目前不知道如何识别哪些
GPU
正在使用
中
(希望使用nvidia-smi手动进行识别)
TensorFlow
to only use the first
GPU
tf.config.
浏览 39
提问于2020-01-14
得票数 0
回答已采纳
2
回答
Tensorflow
:动态调用具有足够可用内存的
GPU
我的桌面有两个gpus,可以运行/
gpu
:0或/
gpu
:1规范的
Tensorflow
。但是,如果我不指定运行代码的图形处理器,
Tensorflow
将默认调用/
gpu
:0,这一点我们都知道。现在我想设置系统,以便它可以根据每个
gpu
的空闲内存动态
分配
gpu
。例如,如果一个脚本没有指定运行代码的
gpu
,系统将首先为它
分配
/
gpu
:0;然后,如果另一个脚本现在运行,
浏览 4
提问于2016-11-30
得票数 0
1
回答
TensorFlow
在会话启动时
分配
大量主内存
、
AnacondaPython2.7.13
和
TensorFlow
r1.3 (从源代码编译),具有32G物理内存
和
2个
GPU
( GTX Titan X
和
GTX 970),而没有设置CUDA_VISIBLE_DEVICES(即两个
GPU
都是可见的),则生成的Python进程
分配
了59.7G内存!如果CUDA_VISIBLE_DEVICES= (即两个
GPU
都不可见),则只
分配
2.5G,使用
中
的只有131M。 在被
浏览 0
提问于2017-09-08
得票数 6
1
回答
指定Torch
和
Tensorflow
两种不同的
GPU
、
、
、
我在比较两个预先训练过的模型,一个在
Tensorflow
,一个在Py手电,在一个有多个
GPU
的机器上。每个型号适合一个
GPU
。它们都加载在相同的Python脚本
中
。我如何将一个
GPU
分配
给
Tensorflow
模型,另一个
GPU
分配
给Py火炬模型?设置CUDA_VISIBLE_DEVICES=0,1只告诉这两个模型这些
GPU
是可用的--我(在Python猜中),如何确保
Tensorflow
采用
浏览 0
提问于2018-09-11
得票数 0
回答已采纳
1
回答
同一台机器上的一组
GPU
和
同一型号的
GPU
工作良好,另一组则得到OOM错误。
、
、
:247] PoolAllocator:在47441 get请求之后,put_count=8461 evicted_count=1000 eviction_rate=0.118189
和
不满意的
分配
rateW
tensorflow
/core/common_runtime/bfc_allocator.cc:217]内存不足,试图
分配
3.08GiB。W
tensorflow
/core/common_runtime/bfc_allocator.cc:21
浏览 3
提问于2017-04-15
得票数 0
1
回答
使用
tensorflow
时AWS g2.8x大性能
和
内存不足问题
、
、
、
我使用的是带有Ubuntu 14.04的AWS g2.8xlarge,以及最近的每晚构建的
tensorflow
(我于8月25日下载)。从表面上看,CPU
和
GPU
的利用率都很低。以下是系统监视器
和
nvidia-smi (每2秒更新一次)在运行约20秒时的快照: 如果我将节点数量增加到200,它会给我一个内存不足的错误,这发生在
浏览 15
提问于2016-09-08
得票数 2
1
回答
关闭会话后不释放
GPU
资源的
Tensorflow
C++
、
、
我在Windows10上编译了支持
GPU
的
tensorflow
C++ (分支r1.7),在创建新的会话时,在
GPU
上
分配
了3GB的内存。关闭会话似乎不会像nvidia命令所确认的那样从
GPU
释放内存。只有当C++程序退出时,
GPU
内存才会释放。如
何在
代码
中
释放内存?int main() SessionOptions options;
tensorflow
::Status
浏览 2
提问于2018-06-29
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
dYdX Chain将把所有交易费用分配给验证者和质押者
C/C+进阶日记之如何在C中动态分配2D数组?
国芯科技:和智绘微联合开发的GPU芯片目前正在流片验证中
Google和Nvidia 强强联手,带来优化版 TensorFlow 1.7
TensorFlow修炼之道(3)——计算图和会话(Graph&Session
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券