腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何使用Google中的tf.Keras 2.0将TensorFlow
模型
转换为
TPU
?
、
、
、
由于TF2.0没有tf.contrib层,我如何转换我的
模型
来
运行
TPU
上
的培训,而不需要访问tf.contrib.
tpu
.keras_to_
tpu
_model()我的数据是.npy的,我有一个
简单
的
模型
,我只使用model.compile()和model.fit()来训练它,但是看起来这个
模型
是
在
CPU
上<
浏览 4
提问于2019-04-05
得票数 7
2
回答
简单
模型
不
能在
tpu
上
运行
(
在
colab
上
)
、
、
、
、
我
在
google
colab
上
使用
TPU
运行
一个非常
简单
的
模型
时遇到了问题。我已经将它提炼成一个非常
简单
的程序。我怀疑它不喜欢嵌套
模型
(input_2?)= 'grpc://' + os.environ['
COLAB
_
TPU
_ADDR']
tpu
_model = tf.contrib.
tpu
.keras
浏览 19
提问于2019-01-02
得票数 2
2
回答
谷歌
Colab
KeyError:'
COLAB
_
TPU
_ADDR‘
、
、
我试图使用
TPU
选项
在
Google
上
运行
一个
简单
的MNIST分类器。
在
使用Keras创建
模型
之后,我试图通过以下方法将其转换为
TPU
:import os
tpu
_model = tf.contrib.
tpu
.keras_to_
tpu
_model(
tpu
='grpc://' + os.envi
浏览 0
提问于2018-11-04
得票数 2
回答已采纳
1
回答
在
Colab
TPU
上
运行
Pytorch堆叠
模型
、
、
、
、
我正试着
在
Colab
多核
TPU
上
运行
我的
模型
,但我真的不知道怎么做。我尝试了,但我得到了一些错误,我不能修复它,但我认为可能有更
简单
的等待来完成它。关于我的
模型
: def __init__(self,...): linear_output = self.linear(bert_output) r
浏览 2
提问于2020-12-03
得票数 1
1
回答
基于Google
Colab
的
TPU
训练目标检测
模型
、
我正在按照这里的https://towardsdatascience.com/creating-your-own-object-detector-ad69dda69c85指南训练一个对象检测
模型
在
Google
Colab
上
,我可以执行以下命令,它利用了GPU python train.py --train_dir=training/ --pipeline_config_path=training/ssd_mobilenet_v1_0.75_depth_quantized_3
浏览 17
提问于2019-12-06
得票数 3
3
回答
与PyTorch一起使用
TPU
、
、
、
、
我正在尝试使用谷歌云的
TPU
来自
Colab
。我通过使用Tensorflow完成了本教程中的操作。 有没有人知道是否可以使用PyTorch的
TPU
?如果是这样的话,我怎么做呢?你有什么例子吗?
浏览 0
提问于2018-10-04
得票数 14
回答已采纳
2
回答
可以从本地内核使用
TPU
吗?
我正在尝试用
TPU
训练一个
模型
,但我必须使用Google
Colab
或类似的平台吗?
浏览 19
提问于2020-12-09
得票数 0
1
回答
Keras fit_generator
运行
得非常慢
、
、
、
我使用以下代码声明了一个Keras
模型
:model.add(tf.keras.layers.LSTM(units=50, activation我对batch_generator功能的理解是,函数准备批处理并在GPU /
TPU
上
加载它们,但情况似乎并非如此。此代码
运行
在Google与
TPU
运行
时。
浏览 2
提问于2019-11-02
得票数 2
回答已采纳
1
回答
TF1.14][
TPU
]不
能在
使用
TPU
的
Colab
上
使用自定义TFrecord数据集
、
、
、
我想用它来训练使用免费
TPU
的
Colab
模型
。我可以加载TFRecord文件,甚至
运行
迭代器来查看内容,但是,
在
时代开始之前,它会抛出以下错误: [[RemoteCall]]
在
我的理解
浏览 1
提问于2019-09-19
得票数 0
2
回答
如何在
Colab
TPU
上
释放磁盘空间?
、
、
、
我正在Google
Colab
上
训练一些深度学习
模型
,
运行
时类型设置为
TPU
。RAM和磁盘状态显示我已经
在
Colab
上
使用了大部分磁盘存储。有没有办法重置它?或者删除一些东西来释放更多的磁盘空间?我知道我可以改用GPU,这会给我更多的磁盘空间,然而,我的型号需要永远改变,所以我真的想留在
TPU
上
。提前感谢!
浏览 142
提问于2019-11-28
得票数 6
1
回答
如何在google
colab
中使用
TPU
、
、
、
Google
colab
在
运行
时加速器中引入了
TPU
。我找到了一个例子,如何在中使用
TPU
。但是这个例子
在
google-colaboratory上不起作用。它停留在下面这一行:当我
在
colab
上
运行
时,它返回用于
TPU
加速器的[]。有人知道如何在
cola
浏览 2
提问于2018-09-27
得票数 13
回答已采纳
1
回答
Google Cloud VM仍然使用CPU而不是
TPU
来执行Python/Tensorflow脚本
、
、
、
、
我已经
在
Google Cloud
上
设置了一台
TPU
机器,我认为我做得很正确,因为当我
运行
ctpu status时,它会返回RUNNING。但是,我有一个Python脚本,我正在尝试
运行
它,并且我希望它使用
TPU
。但是,根据终端中输出的前几行,它仍在使用CPU。17179869184}physical_device_desc: "device: XLA_CPU device" ]
浏览 16
提问于2020-04-21
得票数 1
1
回答
为什么当我试图转换Keras时,Google
Colab
会给出一个“未知设备”错误?
、
、
、
我试着用
TPU
在
google
上
训练一个
简单
的MLP
模型
。= 'grpc://' + os.environ['
COLAB
_
TPU
_ADDR'] model,当我
运行
测试代码时:import pprint import t
浏览 0
提问于2019-03-19
得票数 2
回答已采纳
2
回答
如何清除
Colab
Tensorflow
TPU
内存
、
、
、
我正在执行几个折叠
模型
。每次折叠后,我想清除
TPU
内存,这样我就不会得到OOM错误。 1168
浏览 13
提问于2021-07-29
得票数 1
回答已采纳
1
回答
TF / Keras错误: InputLayer不是可检查的
、
、
、
我正在试用新增加的
TPU
支持谷歌
Colab
与
简单
猫狗数据集。TypeError: Checkpointable.这是我
在
Colab
上
写的代码。train_datagen.flow_from_directory(train_dir, target_size=(150,150), batch_size=20, class_mode='bin
浏览 1
提问于2018-10-07
得票数 7
回答已采纳
2
回答
如何在PyTorch中使用
TPU
?
、
、
我正在尝试使用pytorch_xla使用
TPU
,但它在_XLAC中显示导入错误。 !
浏览 19
提问于2020-05-17
得票数 6
1
回答
用GPU代替
TPU
训练莎士比亚
模型
、
、
、
、
我想看看用
TPU
和GPU训练
模型
有什么不同。(
tpu
='grpc://' + os.environ['
COLAB
_
TPU
_ADDR'])#
TPU
= end - start print(elapsed_
TPU
) (来源:https://
colab
.research.go
浏览 21
提问于2021-03-26
得票数 3
回答已采纳
3
回答
Colab
TPU
错误- InvalidArgumentError:由于输出cond_8/Merge:0导致
TPU
: double的数据类型不受支持
、
、
、
我正试着用
TPU
在
google
colab
上
做一些基本的字符分类。我不知道问题出在哪里,因为我
在
创建numpy数组时使用了float32。from matplotlib import pyplot as pltfrom google.
colab
Google's
Colab
, ML Engine, Kubernetes and Deep Learning VMs
浏览 0
提问于2019-07-27
得票数 5
2
回答
如何使用Google连接到专用存储桶
、
、
、
我正在使用和提供的
TPU
。我需要上传一个预先训练过的
模型
到
TPU
。 现在,我只获得了对桶的All:R读取权限,并且成功地初始化了
TPU
,但很明显,这不是最佳解决方案。
浏览 1
提问于2020-04-26
得票数 4
2
回答
Google
Colab
:为什么CPU比
TPU
快?
、
、
、
、
我正在使用Google
TPU
来训练一个
简单
的Keras
模型
。删除分布式策略并在CPU
上
运行
相同的程序比
TPU
快得多。那件事怎么可能?y_train, y_val = train_test_split(x, y, test_size=0.30, shuffle=False) x_val = x_val.astype('
浏览 9
提问于2019-12-10
得票数 4
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券