腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(4654)
视频
沙龙
1
回答
Keras
多
GPU
:
指定
显
式
GPU
ids
tensorflow
、
keras
、
multi-gpu
通过查看tensorflow GitHub存储库中的
keras
/utils/multi_
gpu
_utils.py文件,我可以看到,如果您
指定
要使用x
GPU
,它将自动分配来自range(x)的
GPU
我需要使用
GPU
4, 5, 6 ,7,因为前4个
GPU
已经在处理另一个任务。有没有一种方法来
指定
它?
浏览 17
提问于2019-06-04
得票数 0
回答已采纳
1
回答
TF图形能在不离开
GPU
的情况下在一个会话中输入另一个图形吗?
tensorflow
我的假设是,为了做到这一点,我们在G_1的提要上输入
GPU
,然后将G_1的输出输入到G_2中,然后输出到CPU。 有什么方法可以在
GPU
上同时提供这两个图形吗?
浏览 5
提问于2016-05-30
得票数 1
回答已采纳
2
回答
无法在Colab中运行TF2.0和
GPU
支持的基本示例
python
、
tensorflow
即使在环境选项卡中打开
GPU
,基本示例Colab (可以在这里找到)似乎也无法工作。问题仍然存在,模型要么在CPU上运行,要么在通过使用with tf.device('/device:XLA_
GPU
:0'):
显
式
指定
时运行。with tf.device('/device:
GPU
:0'): # <=== Device not found base
浏览 5
提问于2019-11-19
得票数 2
回答已采纳
2
回答
SageMaker与
keras
.utils.multi_
gpu
_model一起使用
多
GPU
时失败
tensorflow
、
keras
、
amazon-sagemaker
使用自定义模型运行AWS SageMaker,在
多
gpu
配置中使用
Keras
加上Tensorflow后端时,TrainingJob在算法错误中失败: from
keras
.utils import multi_
gpu
_model根据SageMaker文档和,当
Keras
后端为MXNet时,multi_
gpu
_model实用程序将正常工作,但是当后端是Tensorflow时,我没有发现任何提到,后者具有相同的
多
gpu
配置。(list,
浏览 1
提问于2018-11-26
得票数 0
回答已采纳
1
回答
如何使
Keras
与Theano一起使用多个
GPU
gpu
、
theano
、
keras
、
theano-cuda
、
cudnn
设置: +---------------------| 0 9862 C python34
浏览 4
提问于2016-05-02
得票数 10
回答已采纳
1
回答
如何在
GPU
中使用
Keras
?
python
、
tensorflow
、
keras
、
gpu
我已经成功地用
GPU
安装了TensorFlow。\common_runtime\
gpu
\
gpu
_device.cc:993] 例如,如果我在
Keras
运行CNN,它会自动使用
GPU
吗?还是我必须
浏览 0
提问于2018-03-26
得票数 8
回答已采纳
3
回答
带有Tensorflow的
Keras
: predict_generator抛出ResourceExhaustedError
tensorflow
、
keras
Keras
被设置为使用
GPU
。我想要计算一组79726张图像245x245 (RGB)的卷积输出,这样我就可以通过一个已经训练过的二级模型得到预测。我使用的是VGG16模型,它是
Keras
.applications附带的。="/job:localhost/replica:0/task:0/device:CPU:0",send_device="/job:localhost/replica:0/task:0/device:
浏览 0
提问于2018-01-28
得票数 1
4
回答
Keras
中的
多
GPU
python
、
deep-learning
、
tensorflow
、
keras
、
gpu
我们如何在
Keras
库(或TensorFlow)中编程,在多个
GPU
上分区培训?假设您是在一个拥有8个
GPU
的Amazon实例中,您希望使用它们来进行更快的训练,但是您的代码只用于一个CPU或
GPU
。
浏览 0
提问于2017-10-18
得票数 43
回答已采纳
1
回答
我们是否可以
指定
最大绝对
GPU
内存使用量
python
、
tensorflow
Tensorflow允许
指定
进程使用的最大部分
GPU
内存:import
keras
sess = tf.Session(config=tf.ConfigProto(
gpu
_options=
gpu
_options))
keras
.backend.set_session(sess
浏览 2
提问于2020-02-06
得票数 0
2
回答
如何使用Tensorflow对象检测API启用
多
GPU
训练
tensorflow
、
deep-learning
我正在尝试使用TensorFlow对象检测应用编程接口执行
多
GPU
训练。 我在我的NVIDIA-SMI中看到的是,实际上只有1个
GPU
被使用。提供的其他3个
GPU
加载了
GPU
进程,但内存使用率为300MB,利用率始终为0% 我使用在COCO上预先训练的基于固态硬盘MobileNetV1的网络,然后用我的自定义数据集对其进行训练。我希望当我为Tensorflow提供更多的
GPU
时,框架实际上会使用它们来加速训练。
浏览 49
提问于2019-10-09
得票数 3
2
回答
Keras
: TypeError:'module‘对象不可调用
python
、
keras
我正在开发一个基于旧版本
Keras
的模型,当我想使用
多
gpu
时,他们会按如下方式导入: multi_model = multi_
gpu
_model(myModel, gpus=args.gpus)from tensorflow.
keras
import utils as multi_
gpu
_model 这会给我带来一个错误:
浏览 2
提问于2021-08-25
得票数 0
6
回答
valueError在
keras
中使用multi_
gpu
_model时
python
、
tensorflow
、
keras
、
google-cloud-platform
、
gpu
我使用谷歌云VM与4特斯拉K80
GPU
的。 ValueError:要用gpus=4调用multi_
gpu
_model,我们希望有以下设备可用:'/cpu:0‘、'/
gpu
:0’、'/
gpu
:1‘、'/
gpu
:2’、'/
gpu
浏览 0
提问于2018-10-23
得票数 3
回答已采纳
1
回答
是否可以为混合精度NN设置
GPU
亲和性,将FP32和FP16连接到不同的
GPU
?
keras
、
tensorflow
、
nvidia
我想使用两者来训练,但是由于RTX可以处理两倍于FP16的速度,所以我想设置它,以便训练是
多
GPU
的,并且RTX处理FP16层,GTX处理FP32层。这在tensorflow、pytorch或
keras
下是可能的吗?
浏览 24
提问于2019-02-15
得票数 1
回答已采纳
2
回答
如何使用带有TensorFlow后端的
Keras
中的其他
GPU
?
machine-learning
、
neural-network
、
tensorflow
、
deep-learning
、
keras
这与有关,但我不需要使用多个
GPU
,而是希望
指定
特定模型在哪个
GPU
上训练或运行。|-------------------------------+----------------------+----------------------+| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage |
GPU
-Util Compute M. | |==============问题是,在
Keras
中,我不
浏览 8
提问于2016-08-12
得票数 4
回答已采纳
1
回答
Keras
Multi_
GPU
_Model:慢速糖蜜
python
、
tensorflow
、
keras
、
multi-gpu
我正在研究
Keras
的
多
gpu
建模。因此,在投入时间之前,我尝试了一个来自lambdalabs的4
gpu
实例上的简单跳过图模型。一个
gpu
的性能比Kaggle的内核稍差(在lambda实验室的
gpu
上内核的数量更少)。 但是
多
gpu
的性能非常糟糕。我读过,但是对于这样一个简单的模型是否存在大量的权重合并还不清楚。和问题是:自去年以来,我们是否了解更多关于
keras
的
多
gpu
问题,以及我如何解决问题
浏览 0
提问于2019-07-31
得票数 0
2
回答
MirroredStrategy不使用
GPU
tensorflow
、
tensorflow-estimator
我想在我的
多
图形处理器系统上使用tf.contrib.distribute.MirroredStrategy(),但它没有使用
GPU
进行训练(参见下面的输出)。另外,我正在运行tensorflow-
gpu
1.12。 我确实尝试在MirroredStrategy中直接
指定
GPU
,但同样的问题也出现了。tf.contrib.distribute.MirroredStrategy(num_gpus=NUM_GPUS) config = tf.estimator.RunConfig(train_distribu
浏览 49
提问于2019-02-19
得票数 9
1
回答
在多个
GPU
上运行相同的模型,但向每个
GPU
发送不同的用户数据
python
、
tensorflow
、
pyspark
、
keras
、
distributed
有没有人在高效的数据并行方面取得了成功,在这种情况下,您将相同的模型定义发送到多个
GPU
,但将不同的用户数据发送到每个
GPU
?我们能够使用
多
GPU
方法对单
浏览 13
提问于2018-01-08
得票数 9
1
回答
py_func只用于CPU操作?
tensorflow
它没有
显
式
地写在文档中,但我由此得出结论,它将绑定到CPU设备上?如果我将此与可能运行在
GPU
上的其他操作系统结合起来,TF是否会贪婪地将同样
多
的计算转移到
GPU
上,并为我的tf.py_func op自动在
GPU
和CPU之间传输内存?(就像西亚诺那样。)是否有类似的tf.py_func来定义
GPU
操作?
浏览 5
提问于2016-12-12
得票数 5
回答已采纳
1
回答
从有
GPU
的机器镜像创建无
GPU
的GCP实例
google-cloud-platform
我有一个使用
GPU
的Google Cloud机器镜像。我想重复使用相同的图像,但不使用
GPU
。然而,我找不到一种方法来
指定
任何加速器-我尝试了--accelerator="",--accelerator=count=0,--accelerator=type=nvidia-tesla-t4,count如果机器映像
指定
了
GPU
,我如何才能不
指定
GPU
? 使用GUI编辑甚至创建机器都会失败:如果我移除
GPU
,它仍然会尝试连接一个
G
浏览 4
提问于2020-12-23
得票数 2
2
回答
基于
多
gpu
的Tensorflow处理性能
tensorflow
、
multi-gpu
、
multiple-gpu
我有一个关于使用多个
gpu
处理的问题。我使用了4个gpus,并尝试了简单的A^n + B^n示例,如下所示。单
GPU
使用tf.device('/
gpu
:0'):....tf.matpow代码.使用tf.device('/
gpu
:1'):....tf.matpow代码.没有
指定
特
浏览 5
提问于2017-01-10
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Keras同时用多张显卡训练网络
MacBook显卡不跑AI模型太浪费:这个深度学习工具支持所有品牌GPU
01-02 前言和准备工作
10个算法从业人员必须知道的TensorFlow技巧
PyTorch 并行训练 DistributedDataParallel完整代码示例
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券