腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
AllenNLP
中
可分解
注意力
模型
的
微调
问题
、
我在
微调
可分解
注意力
elmo
模型
时遇到了麻烦。我已经能够下载
模型
:wget https://s3-us-west-2.amazonaws.com/
allennlp
/models/decomposable-attention-elmo-2018.02.19我尝试加载
模型
,然后使用
AllenNLP
训练命令行命令在我
的
数据上对其进行
微调
。 我还创建了一个自定义
的</
浏览 131
提问于2021-03-29
得票数 0
回答已采纳
1
回答
使用`Predictor.from_path`加载“
可分解
注意elmo”时出现
问题
decomposable attention model (Parikh et al, 2017) combined with ELMo embeddings trained on SNLI.中提出
的
可分解
注意力
模型
,并使用demo website描述
的
代码: predictor = Predictor.from_path("https://storage.googleapis.com/
allennlp
-public-models*weight 而
浏览 115
提问于2020-12-02
得票数 0
1
回答
如何将
AllenNLP
模型
连接到Microsoft Web Chat或Microsoft Bot Framework
、
、
、
我需要连接
AllenNLP
模型
到微软网络聊天或微软机器人框架。有可能吗?
AllenNLP
是否提供了用于连接
的
API端点? 如何创建
模型
以及
模型
在
AllenNLP
中
存储位置?如果任何人有很好
的
知识,请让我知道你对上述
问题
的
反馈。 提前谢谢。
浏览 25
提问于2021-03-31
得票数 0
1
回答
微调
阅读理解
模型
系统
问题
:使用下面的命令,我可以训练
模型
,但我无法判断权重是否正在更新以进行
微调
,还是仅仅是训练一个新
模型
?我试图使用以下命令
微调
新数据(即SQuAD格式)上
的
阅读理解
模型
:{elmo":{
浏览 4
提问于2021-03-09
得票数 0
1
回答
如何在
AllenNLP
中
训练语义角色标注
模型
?
、
、
我知道函数,但我不知道如何使用它来训练语义角色标记
模型
。让我们假设培训样本是生物标记
的
,例如:the B_ARG1in B_LOCbackground I_LOC
浏览 1
提问于2019-03-20
得票数 2
1
回答
在
AllenNLP
之外添加一个预先训练过
的
模型
到
AllenNLP
演示
中
、
、
、
、
我正在研究
模型
的
可解释性。我想使用AllenAI演示来检查其他
模型
上
的
显着性映射和对抗性攻击方法(在本演示
中
实现)。我使用教程并在本地机器上运行演示。现在,我想要加载经过预先训练
的
模型
,这是使用这个("cardiffnlp/twitter-roberta-base-sentiment-latest“从hugging面加载
的
),我不知道如何将
模型
添加到演示
中
我查看了教程,但本指南仅基于在
Al
浏览 7
提问于2022-06-02
得票数 0
1
回答
用
allennlp
建立样条
模型
我对
allennlp
非常陌生,我正在努力构建一个
模型
,这个
模型
似乎不完全适合在
allennlp
中
构建
模型
的
标准方式。 我想用NLP建立一个管道
模型
。管道主要由两个
模型
组成,我们称它们为A和B。首先A被训练,然后根据A,B
的
整个列车
的
预测进行训练。我看到
的
是,人们定义了两个独立
的
模型
,在一个类似的shell脚本中使用命令行接口
allennl
浏览 2
提问于2021-01-15
得票数 0
回答已采纳
1
回答
AllenNLP
)有没有办法设置评估
的
配置,特别是阅读器
的
配置?
我是
allenNLP
库
的
新手。为了设置dataset_reader
的
参数,我想设置求值
的
配置,比如train (https://github.com/allenai/
allennlp
-template-config-files/blob/master/training_config/my_model_trained_on_my_dataset.jsonnet) 但我不确定是否有用于评估
的
配置文件模板,如tra
浏览 31
提问于2021-06-18
得票数 0
2
回答
ModuleNotFoundError:没有名为“
allennlp
.data.iterators”
的
模块
、
、
、
在Google
中
,我尝试使用以下方法导入BucketIterator:但它一次又一次地引起了同样
的
错误-在使用导入安装
allennlp
之后: from
allennlp
.data.token_indexersimport TokenIndexer,
浏览 24
提问于2020-09-23
得票数 1
1
回答
如何规避AWS封装和大型封装和大型
模型
的
短暂限制
、
、
、
我试图将
AllenNLP
安装在lambda函数
中
,而这个函数又依赖于py手电筒、枕木、spacy和numpy以及其他几个lib。按照和示例
的
建议,将删除测试和其他文件。我还使用了一个非库达版本
的
Pytorch,它
的
大小可以降低。我可以将
AllenNLP
部署打包到512 to左右。目前,对于AWS Lambda来说,这仍然太大了。 将Py
浏览 3
提问于2020-01-16
得票数 1
1
回答
使用BERT
模型
检索“相关令牌”(已经过
微调
)
、
、
、
我已经针对分类任务对BERT
模型
(使用huggingface库)进行了
微调
,以预测两种类型
的
帖子类别(例如,1和0 )。但是,我需要检索被预测为类别1
的
文档
的
“相关令牌”(例如)。我知道,一旦我用BERT
模型
将所有帖子标记为1(例如),我就可以使用传统
的
TF-IDF方法。但我有以下
问题
:有没有可能用经过
微调
的
BERT
模型
的
架构来完成同样
的
任务?我
的</em
浏览 19
提问于2021-03-30
得票数 0
1
回答
在Predictor.from_path中使用
AllenNLP
时下载
模型
的
位置?
、
、
我遵循
AllenNLP
的
示例代码,它有一个方法Predictor.from_pathimport
allennlp
_models.tagging predictor = Predictor.from_path("https://storage.googleapis.com/
allennlp
-public-models/coref-spanbert-la
浏览 5
提问于2022-01-02
得票数 2
回答已采纳
1
回答
尽管只有少数几个支持“训练”
的
例子,但在理论上(在“胡德”下),语境
中
的
很少镜头学习到底是如何工作
的
呢?
、
、
、
、
最近
的
模型
,如GPT-3语言
模型
(Brown等人,2020)和Flamingo视觉语言
模型
(Alayrac等人,2022年)在上下文中使用很少镜头学习。其解释似乎是,很少有射击学习有效,因为
模型
看了任务描述,然后看了支持示例(这是如何完成给定任务
的
成功例子),然后基于
模型
对分配任务
的
理解以及它对任务如何成功完成
的
示例
的
理解,它就能够根据提示来理解它应该预测什么我
的
问题
: 我知道这些
浏览 0
提问于2022-10-24
得票数 7
1
回答
错误训练ELMo - RuntimeError:张量a (5158)
的
大小必须与张量b (5000)在非单例尺寸1处
的
大小相匹配。
、
、
、
、
我正在尝试在
AllenNLP
上训练我自己
的
自定义
AllenNLP
模型
。在有些情况下,张量a
的
大小表示为其他值(例如,5300)。当我在一小部分文件上进行测试时,我能够成功地训练
模型
。 根据我
的
直觉,这是处理我
的
模型
中
的
标记数
的
东西。更具体地说,具有5000多个令牌
的
特定文件。但是,在
AllenNLP
包
中
没有参数允许我调整这个参数
浏览 5
提问于2022-03-17
得票数 0
回答已采纳
2
回答
将HuggingFace
模型
加载到
AllenNLP
中
可以提供不同
的
预测
、
、
、
我有一个自定义分类
模型
,使用基于transformers
模型
的
BERT库进行培训。该
模型
将文本划分为7个不同
的
类别。使用以下方法将其保存在目录
中
:tokenizer.save_pretrained(model_name) 我试图使用
allennlp
库加载这种持久化
模型
经过大量
的
工作,我终于做到了。但是,在
allennlp
框架内运行
模型
时
浏览 3
提问于2021-11-07
得票数 0
回答已采纳
1
回答
如何在
Allennlp
2.4.0
中
使用amp training?
我已经学会了在https://medium.com/ai2-blog/tutorial-training-on-larger-batches-with-less-memory-in-
allennlp
-1cd2047d92ad
的
训练
模型
上使用AMP和GA技巧,但在2.4.0版
中
似乎不支持。文件密钥第217行,在create_serialization_dir f“训练配置
中
‘{ "/root/anaconda3/envs
浏览 76
提问于2021-06-28
得票数 0
回答已采纳
1
回答
在lm
微调
中
前向传递过程
中
attention_mask
的
使用
我有一个关于Hugging存储库上
的
语言
模型
微调
代码
的
问题
。BERT
模型
的
前向方法似乎将一个名为
的
参数作为输入。 指出,注意掩码是将序列批处理在一起时使用
的
可选参数。此参数向
模型
指示哪些令牌应该关注,哪些不应该关注。例如,记号赋予器编码方法返回这个注意掩码,一个指示填充索引位置
的
二进制张量,以便
模型
不关注它们,这是有意义
的
。然而,如果我没记错的话,我在语言
浏览 2
提问于2020-02-25
得票数 8
1
回答
AllenNLP
是否倾向于伯特?
、
、
、
、
我们关注
的
任务之一是NER,而且由于
AllenNLP
支持,我们期待着通过这些新
的
RoBERTa
模型
与
AllenNLP
的
crf_tagger相结合,看看我们是否会得到更大
的
改进。这让我们怀疑
AllenNLP
可能以某种方式偏向于伯特,然后我们决定为使用变压器和
AllenNLP
的
NER运行一个英语标准基准(),结果我们得到了这种怀疑。
AllenNLP
的
结果是令人惊讶
的
:
浏览 9
提问于2022-08-10
得票数 0
1
回答
Google 5-由于数字注意头不是
模型
尺寸
的
分隔器,所以配置错误很小。
、
、
google/mt5-small
模型
( HuggingFace )
的
配置文件{ "d_model": 512,...链接到配置文件:据我所知,注意头
的
数目应该是
模型
维度
的
一个分隔器。这在这个配置文件
中
显然不是正确
的
。 我是否误解了自我注意在mT5
中
的
应用?当我使用
AllenNLP</e
浏览 26
提问于2022-01-19
得票数 1
回答已采纳
1
回答
如何对
AllenNLP
学生进行非英语语言培训?
在SRL演示页面上,您有用于训练SRL Bert
模型
的
命令,如下所示: https://raw.githubusercontent.com/allenai没有完全理解链接
中
的
格式,我在
AllenNLP
的
Ontonotes类代码中找到了这个,这是非常有用
的
。类代码(见下文)
中
描述
的
结构完全相同,或者如果我只有一个用于培训
的
浏览 3
提问于2021-09-07
得票数 0
点击加载更多
相关
资讯
自然语言推理的可分解注意力模型
艾伦人工智能研究院真的要推出PyTorch上的NLP库?
Anthropic AI 最新研究成果发布:揭示大模型中的注意力回路
一招制胜:通过单一问题的批评式微调释放大语言模型的推理潜力
logistics判别与线性模型中的4个问题
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
云直播
活动推荐
运营活动
广告
关闭
领券