腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
为什么要将
TensorFlow
用于卷积神经网络
、
、
现在,当我在网上冲浪的时候,我遇到了
tensorFLow
,我发现它非常神奇,并实现了这个,它将MNIST
数据
作为输入。但是我不确定为什么要使用诸如库(
TensorFlow
)之类的库?我们没有做任何
并行
计算,因为在前一个时期更新的权重将在下一个时期使用?我发现很难找到使用这样的库的理由?
浏览 1
提问于2017-01-05
得票数 1
1
回答
Tensorflow
的图间复制是
数据
并行
的一个例子吗?
、
、
根据的说法,在
数据
并行
方法中: 例如,可以在不同的GPU上
并行
地训练网络中的不同层。这个培训过程通常被称为“模型
并行
性”(或
TensorFlow
文
浏览 0
提问于2018-06-20
得票数 8
回答已采纳
1
回答
keras模型是否支持SageMaker分布式
数据
并行
(SMDDP)?
、
、
、
、
keras模型是否支持SageMaker分布式
数据
并行
(SMDDP)?在文档中,它说"SageMaker分布式
数据
并行
适用于除tf.keras模块以外由tf核心模块组成的
TensorFlow
培训脚本,SageMaker分布式
数据
并行
不支持带有Keras实现的
TensorFlow
浏览 12
提问于2022-09-09
得票数 0
1
回答
我应该使用哪一个来预处理图像?
、
、
、
从keras使用ImageDataGenerator还是从
tensorflow
使用tf.data?哪一个有更好的性能?
浏览 30
提问于2020-04-24
得票数 1
回答已采纳
1
回答
AWS Sagemaker |为什么多实例训练要花费时间乘以实例数量
、
、
hyperparameters=hyperparameters) estimator.fit(data_location) 这里提到的docker镜像是一个
tensorflow
有没有人可以让我知道它在分布式系统或
Tensorflow
上的工作情况。
浏览 15
提问于2019-01-04
得票数 0
回答已采纳
1
回答
现在我们有了
Tensorflow
服务,那么"
Tensorflow
Distibuted“到底是什么?
、
我不明白为什么"
Tensorflow
分布式“仍然存在,现在我们有了
Tensorflow
服务。这似乎是一种使用核心
Tensorflow
作为服务平台的方法,但当
Tensorflow
服务和TFX是一个更强大的平台时,我们为什么要这样做?它仅仅是传统支持吗?如果是这样,那么
Tensorflow
分布式页面应该明确这一点,并将人们引向TFX。
浏览 12
提问于2018-08-16
得票数 1
1
回答
模型
并行
在
tensorflow
中的实现
、
、
我想在两个GPU之间实现模型
并行
,以训练大型模型。我一直在互联网上浏览,所以,
tensorflow
文档等等,我能够找到关于模型
并行
性的解释及其结果,但是我没有找到一个关于如何使用
tensorflow
实现它的小教程或小代码片段。在
tensorflow
中是否有实现模型
并行
的特定或更清晰的方法?如果您能建议我一个可以学习实现它的地方,或者使用‘模型
并行
’在多个GPU上进行mnist培训这样的简单代码,那将是非常有帮助的。注意:我做过类似于CIFAR10 -多gpu教程中的<e
浏览 1
提问于2017-02-06
得票数 9
回答已采纳
1
回答
Tensorflow
多线程推理比单线程推理慢
、
、
、
我正在尝试使用3个
Tensorflow
会话(使用3个线程)实现多线程推理,如下所示: def test_tf(sess, t_num, y_op, x_inp, input_list, tflag_op1持续时间: 0.1493705999996564 迭代2持续时间: 0.14735560000008263 迭代总时长: 0.44588549999980387 在我看来,我的多线程推理实际上并没有
并行
运行推理我理解在Python的大多数情况下,这是因为GIL不是由每个线程释放的,但我读到过
Tensorflow
session.run()确
浏览 32
提问于2019-12-30
得票数 0
2
回答
赛义德-分布式训练
、
、
具体来说, role=role, py_version="py37{"dataparallel": {"enabled": True
浏览 11
提问于2021-12-15
得票数 0
1
回答
如何在图形核心议会联盟上实现模型
并行
性?
、
我成功地将我的
TensorFlow
模型的一个版本移植到了Graphcore议会联盟,并运行了
数据
并行
性。然而,全尺寸模型并不适合于单一的议会联盟,我正在寻找实现模型
并行
性的策略。到目前为止,我还没有找到关于模型
并行
方法的信息,除了中的
TensorFlow
指南中针对议会联盟的信息之外,在该指南中引入了切分的概念。 是否在多个IPU之间拆分我的模型的推荐方法?
浏览 2
提问于2020-06-23
得票数 2
回答已采纳
1
回答
Tensorflow
自动使用多个CPU吗?
、
、
我编写了一些代码,用
Tensorflow
的CPU(仅限于CPU)进行推理。它运行在一个集群节点上,在那里我可以访问24个GPU和1个GPU。我不使用GPU,因为我将需要做的任务CPU-只是稍后。不知怎么的,每次我从另一个程序(OpenFOAM)调用
Tensorflow
代码时,
Tensorflow
似乎都运行在所有
并行
的CPU上。然而,我没有做任何事情来造成这种行为。现在我想知道
Tensorflow
在默认情况下是否存在这种
并行
化? 提前向大家问好,谢谢!
浏览 1
提问于2019-05-17
得票数 1
1
回答
将/ feed_dicting大型
数据
集加载到
Tensorflow
会话
、
、
、
我试图消费50k的convNet图像
数据
集的比率tr-60%,测试-20%,验证-20%。train_prediction], feed_dict=feed_dict) 创建一个op,它以流的方式加载
数据
。
浏览 2
提问于2017-02-21
得票数 2
回答已采纳
1
回答
Python:
并行
化GPU和CPU工作
、
、
、
、
为我的ML模型处理批处理花费了太多的时间,所以我正在考虑
并行
化它们。计划如下:一个单一的
数据
结构将存储一组
数据
点。每一步训练算法都采用随机子集对模型进行训练(用
TensorFlow
在GPU上进行训练)。 同时,我希望另一个线程对下一组<e
浏览 4
提问于2016-07-05
得票数 2
回答已采纳
2
回答
Tensorflow
-GPU上的类CUDA优化
我正在探索这个任务的
TensorFlow
。 在
TensorFlow
中,我注意到您只需指定gpu作为在gpu上执行某些操作的设备,比如在 post中。看起来,
并行
操作的方式由TF决定,用户没有选择来做出优化决策。
TensorFlow
性能指南中的“GPU优化”部分也没有提到对
并行
化操作的显式控制。我的问题是,我可以在
TensorFlow
中进行类似CUDA的优化吗?更详细地说,是否有可能定义哪些操作将被
并行
化(比如为
并行
操作定义CUDA内核)?
浏览 8
提问于2018-01-08
得票数 1
回答已采纳
3
回答
inter_op_parallelism_threads和intra_op_parallelism_threads的意义
、
、
、
有谁能解释一下
TensorFlow
术语吗?
浏览 6
提问于2016-12-20
得票数 88
1
回答
如何在多个GPU上使用
tensorflow
并行
推理?
、
、
我正在使用
tensorflow
-用于部署我的
tensorflow
模型。我有多个GPU在服务器上可用,但到目前为止,在推断期间,只有一个GPU被使用。我现在的想法是,将大量图像的分类
并行
化,是为每个可用的GPU生成一个
tensorflow
服务映像,并有
并行
的“工作人员”从生成器获取图像,发出请求并等待答复。然后从生成器获取一个新的图像,等等。这意味着我必须实现自己的
数据
处理程序,但这似乎是可以实现的。 我读过一些关于SharedBatchScheduler在
TensorFlow<
浏览 0
提问于2019-01-28
得票数 1
回答已采纳
1
回答
tensorflow
中LSTM的分布式训练
、
、
、
、
LSTM是一个算法还是一个节点?如果在模型中使用它,如果我使用分布式训练,反向传播会发生冲突吗?
浏览 5
提问于2017-12-26
得票数 1
回答已采纳
0
回答
我可以在
TensorFlow
中为每个模型创建一个图形吗?
好处是我可以使用tf.train.export_meta_graph()存储和加载单独的模型,但我不确定这种用法是否是
TensorFlow
设计的目的。只要我不想在它们之间共享
数据
,
并行
使用多个图是否会对
并行
度/性能、功能等产生负面影响?
浏览 3
提问于2016-07-19
得票数 0
回答已采纳
1
回答
用tf.Dataset API实现python函数的
数据
增强
、
、
、
、
我正在寻找动态读取图像和应用
数据
增强为我的图像分割问题。从我到目前为止所看到的情况来看,最好的方法是带有tf.Dataset函数的.map API。但是,从我看到的例子来看,我认为我必须将我的所有函数调整为
tensorflow
样式(使用tf.cond而不是if等等)。问题是,我有一些非常复杂的函数,我需要应用。因此,我考虑像这样使用tf.py_func:iter = dataset.make_one_shot_it
浏览 0
提问于2018-06-12
得票数 0
回答已采纳
1
回答
默认情况下,
Tensorflow
如何使用CPU内核?
、
、
我知道我可以设置inter_op_parallelism_threads和intra_op_parallelism_threads变量来控制
Tensorflow
中的
并行
性。但是我想知道默认情况下,
Tensorflow
是如何处理跨CPU内核的
并行
性的?我最初的猜测是,默认情况下,是,
Tensorflow
将所有的CPU核看作一个设备,并使用它们在使用Eigen库的所有核中同时运行一个单个操作,而且我们没有任何inter_op
并行
性(这意味着
并行
运行mutli我想知道
浏览 5
提问于2019-11-05
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Tensorflow入门教程(九)——Tensorflow数据并行多GPU处理
tensorflow 怎么配置非数据并行分布式?
TensorFlow分布式计算机制解读:以数据并行为重
分布式训练中数据并行远远不够,“模型并行+数据并行”才是王道
TensorFlow 篇 | TensorFlow 数据输入的最佳实践
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券