腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(2373)
视频
沙龙
1
回答
多
GPU
训练
不会减少
训练
时间。
tensorflow
、
keras
、
multi-gpu
为了评价
多
GPU
训练
的效果,我尝试了三种使用角点分割的UNet模型。 First模型在1
GPU
(P100)上使用1批大小进行
训练
。每个
训练
步骤约254毫秒。(请注意,这是步骤,而不是划时代),第二模型是使用2个批次大小使用1个
GPU
(P100)
训练
的。每个
训练
步骤采用~399 was,第三模型用2个
GPU
(P100)进行2批
训练
。每个
训练
步骤约370。从逻辑上讲,它应该与第
浏览 2
提问于2020-03-24
得票数 2
回答已采纳
1
回答
数据
并行
性对
训练
结果的影响
machine-learning
、
neural-network
、
multiprocessing
、
tensorflow
、
deep-learning
我目前正在尝试使用Tensorflow网络实现
多
GPU
培训。一种解决方案是每个
GPU
运行一个模型,每个
GPU
都有自己的数据批,并在每次
训练
迭代之后组合它们的权重。换句话说,“数据
并行
”。例如,如果我使用两个
GPU
,与它们
并行
训练
,然后组合它们的权重,那么与在一个
GPU
上进行这两个数据批的
训练
相比,产生的权重不应该是不同的吗?因为两个
GPU
具有相同的输入权重,而单个
GPU</
浏览 4
提问于2016-11-17
得票数 3
回答已采纳
1
回答
TensorFlow Slim - cpu上的克隆
tensorflow
在以下代码段中,“使用CPU部署克隆”意味着什么? 'clone_on_cpu', False,)
浏览 2
提问于2017-08-28
得票数 1
回答已采纳
1
回答
模型
并行
在tensorflow中的实现
parallel-processing
、
tensorflow
、
distributed
我目前正在开发一个有2个
GPU
的系统,每个
GPU
的容量为12 of。我想在两个
GPU
之间实现模型
并行
,以
训练
大型模型。我一直在互联网上浏览,所以,tensorflow文档等等,我能够找到关于模型
并行
性的解释及其结果,但是我没有找到一个关于如何使用tensorflow实现它的小教程或小代码片段。在tensorflow中是否有实现模型
并行
的特定或更清晰的方法?如果您能建议我一个可以学习实现它的地方,或者使用‘模型
并行
’在多个
GPU
上进行m
浏览 1
提问于2017-02-06
得票数 9
回答已采纳
1
回答
mxnet
gpu
支持中的多处理
python
、
multiprocessing
、
mxnet
我有一个由mxnet
gpu
支持
训练
的模型,我将这个模型加载到
gpu
上。我的问题是,当我多进程时,我得到一个无效的指针error.how来做多处理在mxnet图形处理器支持?
浏览 1
提问于2019-10-16
得票数 0
1
回答
如何使用Keras将数据均匀地分配到多个
GPU
deep-learning
、
keras
、
tensorflow
、
gpu
我使用的是Tensorflow-
gpu
=2.0.0后端的Keras=2.3.1。当我在两个RTX 2080 ti 11G
gpu
上
训练
模型时,它将所有的数据分配给'/
gpu
:0',没有任何变化与'/
gpu
:1‘。当然,第二个
GPU
根本没有使用。但是,如果我只选择一个
GPU
,每个
GPU
都可以工作。 此外,这两个gpus可以
并行
运行,在毕道尔。按照一些实例,我尝试使用以下代码运行多个gpu
浏览 0
提问于2020-09-04
得票数 1
1
回答
tensorflow
多
GPU
训练
python
、
ubuntu
、
tensorflow
、
deep-learning
我按照tensorflow 1.2.0:上的教程创建了一个
多
GPU
训练
系统 在创建
多
GPU
版本之前,我能够在单个
GPU
上容纳64个批处理大小。我想如果我按照上面的教程创建一个
多
GPU
版本的代码,我可以通过数据
并行
化来适应更多的批处理。我希望使用4个GPUS,每个GPUS的批处理大小为64,但我面临内存不足的问题。当使用批处理大小为64时,我只能使用2个GPUS进行数据
并行
化;当使用批处理大小为32时,我只能使用4个G
浏览 18
提问于2017-06-28
得票数 1
1
回答
GPU
如何
并行
化不同的任务?
gpu
我非常有兴趣了解
GPU
如何
并行
不同的任务,如实时渲染和
训练
神经网络。我知道
并行
化背后的数学原理,但我很想知道
GPU
到底是如何工作的。实时绘制和
训练
神经网络是不同的.
GPU
如何有效地
并行
这两个任务?
浏览 3
提问于2020-05-07
得票数 0
回答已采纳
1
回答
在特定NUMA节点上固定和分配tensorflow
python
、
tensorflow
、
numa
使用Keras的multi_
gpu
_model通过单机
多
GPU
数据
并行
来
训练
神经网络模型。 如何指示TF仅在NUMA节点1上分配内存并执行TF工作进程(合并权重)?或者我必须退回到set_mempolicy()/numactl (
LINUX
)?
浏览 16
提问于2019-09-30
得票数 1
1
回答
训练
时单
GPU
和
多
GPU
设置的损失是否相同(Tensorflow)?
tensorflow
、
deep-learning
、
gpu
我正在
训练
一个语义切分模型。我使用的批处理大小为10个图像上的一个单一的
GPU
培训。我同时使用相同的超参数在
多
GPU
(3
GPU
)设置上进行
训练
.对于
多
GPU
,我使用的批处理大小为30张图像,即每
GPU
10张图像.从理论上讲,在
训练
过程中,每个阶段的每一步损失值是否应该是单个
GPU
和
多
GPU
训练
过程中相同的值范围? 就我而言,这不是我目前在<
浏览 2
提问于2019-01-31
得票数 0
回答已采纳
1
回答
Tensorflow在
GPU
上比CPU上慢
tensorflow
、
keras
、
gpu
、
tensorflow2.x
使用带有Tensorflow后端的Keras,我正在尝试
训练
LSTM网络,在
GPU
上运行它比在CPU上运行要花费更长的时间。keras-
gpu
2.2.4 0看来Tensorflow正在使用
GPU
浏览 0
提问于2019-06-25
得票数 4
回答已采纳
1
回答
GFlops量对神经网络
训练
速度的影响
tensorflow
、
neural-network
、
computation
如果一个
gpu
/cpu拥有两倍的GFlops,那么另一个是否意味着该设备上的神经网络的
训练
速度将提高一倍?
浏览 1
提问于2018-04-04
得票数 1
回答已采纳
1
回答
如何用不同的数据在不同的
GPU
上独立
并行
运行相同的Keras模型?
python
、
tensorflow
、
parallel-processing
、
keras
如果我有两个或更多的
GPU
,有没有一种方法可以在
GPU
0上
并行
训练
model0,在
GPU
1上
并行
训练
data1上的model1?到目前为止,我发现的所有方法都将单个模型的
训练
分散到多个gpus上。
浏览 2
提问于2018-08-09
得票数 0
1
回答
如何使用多个
GPU
通过Tensorflow进行单独的
训练
?
tensorflow
、
gpu
、
distributed-computing
、
multi-gpu
我阅读了许多关于在TensorFlow中使用多个
GPU
的文章和帖子。它帮助我学习了更多关于“如何使用
并行
GPU
来
训练
神经网络”(how to use parallel
GPU
to train ( here network))。但我有一个不同的问题。可以使用单独的
GPU
同时
训练
不同的NN吗? 更多详细信息: 我有神经网络A,B,和
GPU
1,
GPU
2。我想同时在
GPU
1上
训练
A NN,在
GPU
浏览 12
提问于2021-01-20
得票数 0
2
回答
TensorFlow
多
gpu
训练
中的模型
并行
性
tensorflow
我正在使用tensorflow在一台机器上
训练
几个
GPU
中的模型。然而,我发现速度比在一个
GPU
上
训练
要慢得多。我想知道tensorflow是否在不同的
GPU
中
并行
地或顺序地执行子模型。例如:y = 2 z1 = tf.multiply(x, y) with tf.device('/
gpu
:1'):z2 = tf.ad
浏览 2
提问于2018-04-02
得票数 0
回答已采纳
1
回答
如果CNN模型在CNN 10/100上都进行了角化
训练
,那么如何在一幅图中绘制精确/丢失图?
python
、
tensorflow
、
matplotlib
、
parallel-processing
、
conv-neural-network
在卷积神经网络中使用cifar10、cifar100等基准图像数据集是一种标准的做法,我想知道是否可以在两种不同的数据集上同时使用cifar10、cifar100来进行
训练
。我认为我们可以
并行
运行代码,并将
训练
模型输出封装在一个字典中,然后在一个图中绘制准确性/丢失图。我尝试了几种不同的方法来实现这一点,我总是被cifar10和cifar100的
并行
运行所困扰。我用nivdia
GPU
进行实验,但不一定要运行CNN
并行
的两个不同的数据集?有什么方法可以让这件事在tensorfl
浏览 8
提问于2020-08-08
得票数 1
回答已采纳
2
回答
tensorflow:
多
GPU
与分布式tensorflow的区别
tensorflow
、
deep-learning
在代码中没有使用集群和服务器的情况下,我看到了一些关于
多
GPU
的例子。非常感谢!
浏览 4
提问于2016-06-09
得票数 10
回答已采纳
2
回答
TensorFlow中序列到序列模型的分布式(
多
设备)实现?
gpgpu
、
tensorflow
、
multi-gpu
、
lstm
、
recurrent-neural-network
是一个非常好的教程,在TensorFlow中
训练
序列到序列模型.我只想知道是否有一个分布式版本的,它利用(一组
GPU
)在单机上获得更好的性能?已经提到,可以
训练
一个大型的多层递归神经网络(参见图8和“模型
并行
训练
”部分)。有谁知道目前的教程是否涵盖模型
并行
培训?如果没有,如何改进最初的教程来利用一组
GPU
?
浏览 2
提问于2016-03-03
得票数 2
回答已采纳
1
回答
如何
并行
化
训练
?
python
、
multithreading
、
machine-learning
、
theano
有没有办法进行多线程
训练
? 是的,也许这是个西亚诺的问题。还有进一步的问题:培训是否可以与OMP_NUM_THREADS__
并行
化?因为我不能检查,因为OMP_NUM_THREADS不做这件事。那我该为我的布拉斯操心了吗?
浏览 11
提问于2015-05-26
得票数 2
回答已采纳
1
回答
使用
多
GPU
方法的tensorflow分布式
训练
混合
machine-learning
、
tensorflow
、
deep-learning
、
distributed
、
multi-gpu
在尝试了当前的分布式
训练
实现后,我认为它将每个
GPU
视为一个单独的worker.However,现在在一个盒子中有2~4个
GPU
是很常见的。采用单盒
多
GPU
方法首先计算单盒中的平均梯度,然后跨多个节点同步,不是更好吗?这种方式大大减轻了I/O流量,而I/O流量一直是数据
并行
性的瓶颈。有人告诉我,在目前的实现中,可以通过将所有
GPU
放在一个盒子中作为工作程序,但我无法弄清楚如何将平均梯度与SyncReplicasOptimizer联系起来,因为Sync
浏览 14
提问于2016-09-20
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券