首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >我们能否只使用BERT进行词嵌入,然后使用SVM/RNN进行意图分类?

我们能否只使用BERT进行词嵌入,然后使用SVM/RNN进行意图分类?
EN

Data Science用户
提问于 2020-08-04 13:08:47
回答 2查看 7.2K关注 0票数 4

根据本文,"用于意图分类的系统包含以下内容的两个组件:字嵌入和分类器。“本文还对BERT+SVM和Word2Vec+SVM进行了评估。

我试图做的相反,比较两个不同的分类器(RNN和SVM)使用伯特的字嵌入。

我发现的大多数Python代码都使用BERT来解决整个意图分类问题,这使我感到困惑。示例

我只想用BERT将单词映射到向量中,并将结果输入到分类器(SVM/RNN)中。伯特同时支持文字嵌入和文本分类吗?有人有解释吗?我尝试用Python测试的内容可行吗?

我有一个有两列的dataframe :意图和问题。这是个小数据集。

谢谢!

EN

回答 2

Data Science用户

发布于 2020-08-18 08:56:11

BERT是一种基于变压器的模型。经过预先培训的伯特可用于以下两个目的:

  1. 微调:这涉及到,用新的数据微调到一个特定的任务,如分类或问题回答等。在这里,伯特本身就像一个分类器。
  2. 提取嵌入:在这里,您可以提取预先训练过的嵌入。Word2Vec (或其他单词嵌入)和BERT之间的区别在于,BERT提供上下文嵌入,也就是说,每个单词的嵌入取决于其相邻的单词。但是,由于它是上下文嵌入,我们可以假设第一个标记'日志服务‘捕获上下文,可以作为句子嵌入作为’支持向量机‘或其他分类器的输入。但是,在RNN的情况下,您可能希望使用每个令牌的预先训练的嵌入来形成序列。

所以,你想如何使用伯特仍然是一个选择。但是如果你能微调伯特模型,它通常会产生更高的性能.但是你必须根据实验来验证它。

票数 2
EN

Data Science用户

发布于 2020-08-13 17:29:44

您当然可以使用BERT的字嵌入支持向量机/RNN。从本质上讲,这就是迁移学习的目的。伯特的MLM方法使它成为最可靠的词嵌入选择之一。

票数 0
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/79772

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档