腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
Keras
在
TPU
上
加载
预
训练
的
BERT
时
出错
、
、
我正在与TensorFlow和凯拉斯
在
TPU
上工作,我需要
加载
预先
训练
的
BERT
模型并将其转换为
TPU
模型。我首先
加载
了模型,它工作得很好。') config_path, checkpoint_path_
bert
= <em
浏览 62
提问于2019-07-02
得票数 1
回答已采纳
1
回答
使用
谷歌云平台
TPU
v3对
BERT
进行
预
培训
、
、
、
我们正在尝试
使用
我们准备
的
语料库对
BERT
进行
预
训练
。
在
本教程()
的
帮助下,我尝试
使用
云壳
使用
TPU
v3对
BERT
进行
预
训练
,但云壳
的
使用
限制为每周60小
时
,这不允许我们有效地执行非常耗时
的
计算,如
BERT
预
训练
。如果我们想在谷歌云平台上
浏览 4
提问于2021-11-09
得票数 0
1
回答
在
TPUStrategy范围内
使用
BERT
作为hub.KerasLayer编译模型失败
、
、
、
、
我正在尝试
使用
来自
Keras
集线器()
的
BERT
多语言作为TensorFlow模型中
的
一个层。
在
不
使用
分发策略
的
情况下
训练
模型效果很好。但是,当尝试通过分发策略利用Google Cloud
TPU
时
,
训练
模型失败,并出现以下错误: ValueError: Variable (<tf.Variable '
bert
/embeddings
浏览 4
提问于2020-01-08
得票数 1
1
回答
使用
Tensorflow-Hub和Colab
TPU
时
出错
、
、
、
、
我正在尝试
使用
Tensorflow集线器
使用
BERT
进行文本分类。代码
在
Colab GPU
上
运行良好,但当我将其转换为Colab
TPU
时
,它显示以下'uninitialized layer‘错误。compute_output_shape(self, input_shape): #step=
be
浏览 77
提问于2019-06-05
得票数 1
1
回答
InternalError
在
训练
Keras
模型中
的
应用
、
、
、
、
我正在尝试微调一个伯特模型
上
的
谷歌Colab从Tensorflow集线器
使用
这个。这个错误只发生在我尝试
使用
TPU
时
(
在
CPU
上
运行很好,但是
训练
时间很长)。下面是我设置
TPU
和模型
的
代码:import os clust
浏览 11
提问于2021-12-25
得票数 3
回答已采纳
1
回答
ValueError:未知层: TFBertModel。请确保将此对象传递给`custom_objects`参数。
、
、
、
、
在这里,我
训练
bert
模型。下面是我用来
训练
的
代码,当我
加载
保存
的
预测模型
时
,它显示了这个错误。有人能帮帮我吗?Dropout,from tensorflow.
keras
.models import Sequential tf.
tpu
.experimental.initialize_
tpu
_sy
浏览 4
提问于2022-08-31
得票数 1
1
回答
Keras
:对于所有操作,
TPU
模型必须具有恒定
的
形状。
、
、
、
、
我正在
使用
一个预先
训练
过
的
keras
模型,我想通过Google Colaboratory
在
TPU
上
运行它,但是我得到了以下错误: from
keras
_xlnet
浏览 3
提问于2019-10-29
得票数 6
1
回答
使用
BERT
编码器
的
二进制分类模型保持50%
的
准确率
、
、
我正在尝试为Yelp二进制分类任务
训练
一个简单
的
模型。Load
BERT
编码器: gs_folder_
bert
= "gs://cloud-
tpu
-checkpoints/
bert
/
keras
_
bert
/uncased_L-12_H-768_A-12" os.path.join(gs_folder_
bert</em
浏览 40
提问于2020-09-27
得票数 1
3
回答
微调
BERT
的
最后x层
、
、
、
我试着微调
BERT
只
在
特定
的
最后一层(比方说最后三层)。我想
使用
谷歌Colab进行
TPU
培训。我
使用
hub.Module
加载
BERT
并对其进行微调,然后将微调后
的
输出用于我
的
分类任务。
bert
_module = hub.Module(
BERT
_MODEL_HUB, tags=tags, trainable=True) hub.Module可以选择将模型设置为可
训练
浏览 67
提问于2019-05-08
得票数 2
1
回答
伯特是如何利用
TPU
记忆
的
?
、
、
、
、
在
谷歌
的
伯特回购说,即使是一句长度为512不能坐在12 GB
的
泰坦X为伯特-大型号。
TP
浏览 2
提问于2019-05-12
得票数 2
3
回答
Colab
TPU
错误- InvalidArgumentError:由于输出cond_8/Merge:0导致
TPU
: double
的
数据类型不受支持
、
、
、
我正试着用
TPU
在
google colab
上
做一些基本
的
字符分类。我不知道问题出在哪里,因为我
在
创建numpy数组
时
使用
了float32。我也不知道cond_8/Merge:0指
的
是什么。我
加载
的
输入文件是一个表示大量28x28灰度图像
的
JSON数组 [{"label":25,"data":[[[1],[.56720000]...],...]}]我已
浏览 0
提问于2019-07-27
得票数 5
1
回答
在
没有来自GCP
的
数据
的
colab
TPU
上进行
训练
,以获得可以全部
加载
到内存中
的
数据
、
、
、
从
TPU
官方文档中可以看出,培训文件必须在GCP
上
https://cloud.google.com/
tpu
/docs/troubleshooting#cannot_use_local_filesystem但我有一个较小
的
数据集(但
训练
将需要很长时间,因为
训练
基于采样/排列),可以全部
加载
到内存中(1-2 gb)。我想知道我是否可以以某种方式直接将数据对象传输到
TPU
,然后它可以
使用<
浏览 12
提问于2020-07-11
得票数 0
1
回答
如何提高
BERT
keras
hub层输入
的
秩(ndim)以进行学习排名
、
、
、
、
我正在尝试
使用
tensorflow集线器
上
提供
的
预
训练
BERT
来实现一个学习排名模型。我
使用
的
是ListNet损失函数
的
一个变体,它要求每个
训练
实例都是与查询相关
的
几个排序文档
的
列表。我需要模型能够接受形状(batch_size,list_size,sentence_length)中
的
数据,其中模型
在
每个
训练
实例
的</e
浏览 31
提问于2021-05-16
得票数 1
1
回答
Tensorflow负荷节约模型,预测和评价。测试精度太低了吗?
、
、
、
、
我已经
在
TPU
上
训练
了我
的
模型,结果似乎很适合测试。
TPU
_model.h5
加载
reconstructed_model =
keras
.models.load_model("
TPU
_model.h5")。
使用
reconstructed_model.predict_classes(tensored_image)
时
,结果是不正确
的
。尝试过reconstructed_
浏览 0
提问于2021-01-16
得票数 2
2
回答
在
带有肋层
的
分配策略范围中没有创建变量。
、
、
、
、
我试着用
TPU
来完成谷歌
上
的
BERT
模型。变量(tf.Variable shape=(768,) dtype=float32)不是
在
0x7f6a1fad3390
的
(tensorflow.python.distribute.
tpu
_strategy.TPUStrategyV1这很可能是因为并非所有层或模型或优化器都是
在
分发策略范围之外创建
的
。试着确保您
的
代码看起来类似于下面的代码。
使用
strategy
浏览 2
提问于2019-08-02
得票数 1
2
回答
残差神经网络模型
在
google colab
tpu
硬件
上
运行非常慢?
、
、
、
、
我已经
在
谷歌Colab
上
为cifar10数据集建立了一个残差神经网络模型,但它在
TPU
硬件
上
运行非常慢。 我有另一个常规
的
卷积神经网络,它在google colab
上
运行良好。此模型
使用
keras
Sequential API,而残差神经网络
使用
Functional API,不确定这是否是问题所在。我已经尝试更改批处理大小,但没有任何帮助。下面是我
的
程序
的
链接。https://c
浏览 41
提问于2019-06-15
得票数 0
2
回答
在
Google Colab中
使用
相同
的
TPU
模型进行
训练
和推理(预测)
、
、
、
、
model = tf.contrib.
tpu
.
keras
_to_
tpu
_model(model,
tpu
_model.fit(...) 请注意,我
使用
相同
的
tpu
_model进行批量预测和
训练
。
tpu
_model.predi
浏览 5
提问于2019-01-27
得票数 0
1
回答
bert
中
的
反向传播
、
、
我想知道,当人们说
预
训练
的
bert
模型
时
,是否只
训练
了最终
的
分类神经网络 或 通过反向传播和分类神经网络,transformer内部是否有任何更新
浏览 121
提问于2021-02-04
得票数 1
回答已采纳
1
回答
如何修复
加载
模型
时
出现
的
错误"KeyError:'CaseFoldUTF8‘when load the model“
、
在
加载
我
使用
tf-hub
的
预
训练
BERT
进行了微调
的
模型
时
观察KeyError:'CaseFoldUTF8' while loading the model
浏览 58
提问于2021-04-30
得票数 1
1
回答
运行run_squad.py对Google
BERT
模型进行微调
时
,无法
加载
(恢复) TensorFlow检查点(官方tensorflow
预
训练
模型)
、
、
我是深度学习和自然语言处理
的
新手,现在正试图开始
使用
预先
训练
好
的
Google
BERT
模型。因为我打算用
BERT
构建一个QA系统,所以我决定从SQuAD相关
的
微调开始。我
在
the official Google
BERT
GitHub repository中遵循了README.md
的
说明。num_train_epochs=2.0 \ --doc_stride=12
浏览 161
提问于2019-04-06
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何基于 TensorFlow 2.0 用十行代码实现性能最佳的 NLP 模型?
百分点认知智能实验室出品:TPU与BERT的邂逅
Keras 3.0正式发布:可用于TensorFlow、JAX和PyTorch
Python中Keras微调Google Gemma:定制化指令增强大语言模型LLM
TensorFlow2.1正式版:最后一次支持Python2
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券