首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >在带TF的Keras中使用多个TPU

在带TF的Keras中使用多个TPU
EN

Stack Overflow用户
提问于 2019-06-09 22:44:49
回答 1查看 590关注 0票数 1

如何将Keras模型设置为使用多个TPU进行训练?所有示例都使用单个TPU地址

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-06-13 02:42:21

显然,使用多个TPU的正确方法是将地址列表传递到解析器:

代码语言:javascript
复制
TPU_ADDRESS1 = 'grpc://10.240.1.2:8470'
TPU_ADDRESS2 = 'grpc://10.240.2.2:8470'

tpu_model = tf.contrib.tpu.keras_to_tpu_model(model, 
        strategy=tf.contrib.tpu.TPUDistributionStrategy(
            tf.contrib.cluster_resolver.TPUClusterResolver(tpu = [TPU_ADDRESS1,TPU_ADDRESS2])))

但TF 1.13是否支持支持超过1个TPU的

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/56515548

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档