腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
bert
模型
中
以
字符串
形式
返回
的
张量
类型
属性
、
、
、
、
我是自然语言处理
的
新手,我想为情绪分析建立一个
bert
模型
,所以我遵循这个教程https://curiousily.com/posts/sentiment-analysis-with-
bert
-and-hugging-face-using-pytorch-and-python/,但我得到了下面的错误
bert
_model = BertModel.from_pretrained(PRE_TRAINED_MODEL_NAME) last_hidden_sta
浏览 83
提问于2020-12-27
得票数 0
1
回答
str‘object没有
属性
“挤压”
、
、
BertTokenizer' object has no attribute 'encode作为BertTokenizer时获得了BertTokenizer当我改变到这个错误已经解决了,但另一个错误是在使用squeeze(0)时出现
的
bert
_embedding = encoded_layers[11].squeeze(0) Attribute
浏览 41
提问于2022-01-28
得票数 0
1
回答
使用可训练
的
权重组合相同维度
的
两个
张量
,
以
获得最终
的
输出
张量
、
、
、
、
在处理与问答(MRC)相关
的
问题时,我实现了两种不同
的
架构,它们独立地给出了两个
张量
(令牌上
的
概率分布)。这两个
张量
都是维度(batch_size,512)。我希望获得表单(batch_size,512)
的
最终输出。如何使用可训练权重组合两个
张量
,然后根据最终预测训练
模型
?编辑(附加信息): 因此,在我
的
NN
模型
的
前向函数
中
,我使用
BERT
模型
对
浏览 5
提问于2020-06-21
得票数 0
1
回答
如何将
bert
嵌入传递给LSTM层
、
、
、
这是我
的
密码:x =
bert
_preprocess(i)x = tf.keras.layers.Dropout(0.2, name="dropout")(x['pooled_output'])我
浏览 10
提问于2022-04-23
得票数 0
1
回答
在Huggingface
模型
中
,如何将PyTorch
模型
层
的
张量
替换为另一层相同形状
的
张量
?
、
、
、
给出了一个Huggingface
模型
。", num_labels=2)# Shape [1024, 1024]replacement_layer = torch.ran
浏览 34
提问于2022-09-07
得票数 1
回答已采纳
1
回答
有没有办法将
bert
-large用作文本分类工具而无需微调?
、
、
、
、
我目前
的
一个任务是将任何文本分类问题
的
基于keras
BERT
的
模型
转换为.pb文件。为此,我已经有了一个函数,它接受keras
模型
,但重点是,当我试图下载任何预训练版本
的
BERT
时,它们总是没有任何用于分类
的
顶层,因此我应该在
BERT
之前手动添加tf.keras.layers.Input我
的
最终目标是摆脱微调
的
需要,并获得一些已经进行了微调
的
现成
模型</
浏览 1
提问于2021-04-06
得票数 0
1
回答
有没有一种使用from_pretrained()转换器方法来推断torchtext
的
方法?
、
、
、
、
BertTokenizer.save_pretrained("OUTPUT_DIR") 将vocab.txt、special_tokens_map.json和tokenizer_config.json保存到我
的
输出目录
中
,可用
的
列车
模型
存储为pytorch_model.bin,配置也在那里。
浏览 69
提问于2020-09-04
得票数 0
6
回答
用HuggingFace
的
变压器用TFBertModel和AutoTokenizer建立
模型
时
的
输入问题
、
、
、
、
我正试图建立这幅图中所示
的
模型
: 我从HuggingFace
的
transformers获得了一个经过预先训练
的
BERT
和相应
的
标记器,其方式如下:但我得到了以下错误: ‘<
浏览 18
提问于2021-09-15
得票数 8
回答已采纳
1
回答
具有加权平均池
的
XLM/
BERT
序列输出到池输出
、
、
、
、
假设我有一个长度为10
的
符号化句子,我把它传递给一个
BERT
模型
。
bert
_out =
bert
(**
bert
_inp)hidden_states.shape这将
返回
一个形状
张量
: batch_size,seq_length,d_model,其中顺序
中
的
每个单词都被编
浏览 3
提问于2021-05-26
得票数 0
回答已采纳
1
回答
运行
BERT
模型
后如何解决
属性
错误
、
、
、
、
在运行
BERT
模型
时收到错误。至此,代码成功运行。我收到
的
错误是形状:'str‘对象没有’AttributeError‘
属性
。代码之前
的
上一步是创建自定义数据生成器。使用这一点,创建了
模型
。为了提供上下文,我使用
的
模型
在网站https://keras.io/examples/nlp/semantic_similarity_with_
bert
/上找到,我用它来解释我自
浏览 112
提问于2021-04-11
得票数 0
1
回答
如何用
bert
嵌入来训练神经网络
模型
,而不是像手套/快速文本那样
的
静态嵌入?
、
、
、
、
我想找一些人来训练一个传统
的
神经网络
模型
,它
的
bert
嵌入是动态生成
的
(
BERT
上下文化嵌入,它为相同
的
单词生成不同
的
嵌入,当不同
的
上下文出现时,它会产生不同
的
嵌入)。在正常
的
神经网络
模型
中
,我们会用手套或快速文本嵌入来初始化
模型
, embed = nn.Embedding(vocab_size,
浏览 0
提问于2019-03-27
得票数 6
1
回答
如何在pytorch中将
字符串
列表转换为
张量
?
、
我正在使用phytorch制作和预测几个
模型
。由于内存问题,我将
张量
列表制作成数据框并将其保存为Excel。在那之后,我试图通过加载存储在Excel
中
的
数据来预测
模型
,但是当我调用Excel时,
张量
列表变成了
字符串
列表。如何将这个
字符串
列表改回
张量
列表?我将参考代码
的
一部分,原始
张量
。def
BERT
_reasoning(tokens_tensor, segments_tensor
浏览 149
提问于2020-09-17
得票数 5
1
回答
如何在Vespa.ai中使用ML
模型
?
我们正在尝试使用Vespa
中
的
ML
模型
,我们在Vespa
中
存储了文本数据,有人能帮助我们解决以下问题- onnx
模型
的
一个例子是使用scikit进行培训-- Vespa中使用
的
学习。
以
Vespa
中
的
onnx
模型
为例,在
模型
训练和预测之前添加预处理步骤。
浏览 5
提问于2020-08-20
得票数 3
回答已采纳
1
回答
如何使用低级(C)接口将
张量
保存到TensorFlow
中
的
文件?
、
使用TensorFlow
中
的
低级操作,我尝试将
张量
(其实际值)保存到磁盘,但找不到方法。例如,如果数据是表示图像
的
UInt8矩阵,那么我可以轻松地使用EncodeJpeg来创建内容,然后使用WriteFile将生成
的
内容写入到具有给定名称
的
文件
中
。同样,EncodeWav也是以同样
的
方式工作
的
。另一方面,如果我只是想保存一个有数字
的
矩阵,没有"EncodeData","TensorToC
浏览 0
提问于2020-02-16
得票数 3
1
回答
如何访问TF集线器模块
中
的
伯特中间层输出?
、
、
、
、
有谁知道如何访问
BERT
在Tensorflow集线器上托管
的
模型
的
中间层
的
输出? 运行[i.values() fo
浏览 1
提问于2019-03-25
得票数 4
1
回答
如何提高
BERT
keras hub层输入
的
秩(ndim)
以
进行学习排名
、
、
、
、
我需要
模型
能够接受形状(batch_size,list_size,sentence_length)
中
的
数据,其中
模型
在每个训练实例
的
'list_size‘轴上循环,
返回
排名并将它们传递给损失函数。在一个只包含密集层
的
简单
模型
中
,通过增加输入层
的
维度很容易做到这一点。'text_input‘
的
形状更改为(比方说) (6),或者真的
以
任何方式干预它时,它总是导致相同
浏览 31
提问于2021-05-16
得票数 1
1
回答
ValueError:不能重塑
张量
(伯特-转移学习)
、
、
、
我正在使用HuggingFace
的
变压器库,使用Keras和
BERT
构建一个多类文本分类
模型
。为了将输入转换成所需
的
bert
格式,我使用了在BertTokenizer类中找到
的
BertTokenizer方法 np.asarray(token_type_ids, dtype=np.int32)]
模型
浏览 3
提问于2020-04-10
得票数 3
回答已采纳
1
回答
在Google
中
存储句子嵌入
、
、
、
我正在寻找一种方式来存储嵌入产生
的
语言
模型
,如(T5),在谷歌
的
BigQuery。storageconvert TFRecord,将其写入TFRecord文件并存储到云TFRecord numpy数组
以
字符串
形式
存储,并将其存储为表存储
中
的
字符串
列,并以模式重复
的
方式存储到列
中
浏览 1
提问于2021-06-03
得票数 6
1
回答
BERT
示例
中
的
类型
错误
、
我是
BERT
QA
模型
的
新手,正在尝试遵循this article
中
的
示例。问题是,当我运行附加到示例
的
代码时,它会产生一个
类型
错误,如下所示
的
TypeError: argmax(): argument 'input' (position 1) must be Tensor,') tokenizer = BertTokenizer.from_pretrained('
bert</em
浏览 76
提问于2021-08-21
得票数 0
回答已采纳
1
回答
如何在objectClass
中
创建新
的
LDAP3?
、
、
、
、
我试图将条目添加到我创建
的
“策略”容器
中
,如下所示:ldap_connection.add('CN=policy1, OU=Policy, DC=<e
浏览 0
提问于2016-10-04
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券