腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(95)
视频
沙龙
1
回答
基于
训
练好
的
BERT
模型
、
拥抱
人脸
的
文本
情感
预测
pytorch
、
sentiment-analysis
、
huggingface-transformers
、
pytorch-dataloader
我用正面、负面和中性
的
类别来
预测
推文
的
情绪分析。我用
拥抱
脸训练了一个
BERT
模型
。现在,我想要对未标记
的
Twitter
文本
的
数据帧进行
预测
,但我遇到了困难。/),并能够使用Hugging训练
BERT
模型
。这是一个对原始
文本
进行
预测
的
示例,但它只有一句话,我想使用一列Tweets。https://cu
浏览 68
提问于2021-11-03
得票数 0
回答已采纳
1
回答
伯特是如何进行
基于
方面的
情感
分析
的
?
deep-learning
、
nlp
、
bert
、
sentiment-analysis
我最近使用了一个套餐来执行
基于
方面的
情感
分析(ABSA)通过一个伯特
模型
。简单地说,该
模型
需要两个输入:我们想要执行ABSA
的
句子我想了解更多关于这种模式是如何工作
的
。我在媒体上看到了许多过于笼统
的
帖子,也读过一些文章,这些文章给出了基本
的
功能。 因此,如果有人能广泛解释
基于
伯特
的
浏览 0
提问于2023-03-02
得票数 1
1
回答
NLP情绪检测-
模型
无法学会识别否定
machine-learning
、
classification
、
nlp
我试图
预测
的
情绪是“喜悦”、“恐惧”、“愤怒”、“悲伤”。我使用一些公开可用
的
标记数据集来训练我
的
模型
,例如ISEAR、WASSA等。我尝试了以下方法:具有以下体系结构
的
LSTM:(X)
浏览 0
提问于2020-09-28
得票数 2
回答已采纳
3
回答
基于
google云自然语言api
的
西班牙语
情感
分析
google-cloud-nl
看起来新
的
API用英语进行
情感
分析,但不是西班牙语,有什么帮助吗?预计什么时候?
浏览 3
提问于2016-07-25
得票数 1
回答已采纳
1
回答
NLP
BERT
模型
在
情感
分析中
的
局限性
machine-learning
、
nlp
、
bert
、
text-classification
我正在读一本纸,作者们用中国
的
伯特
模型
来评估中国
的
在线公众情绪,以回应政府在新冠肺炎期间
的
政策。提交人
的
目标不仅是了解某一在线帖子是关键
的
还是支持性
的
,而且是了解每一篇文章针对谁(例如,CCP、地方政府、卫生部等)。为了实现这一点,作者在第8页到第9页中进一步指出,“为了训练分类员,我们从每个数据集(总共10,541个帖子)随机抽取了大约5,000个帖子,按创建后
的
数据进行分层。我
的
问题是,结合
BERT
情感<
浏览 0
提问于2022-07-20
得票数 0
回答已采纳
1
回答
FastAPI返回
BERT
模型
结果和指标
python
、
nlp
、
sentiment-analysis
、
fastapi
、
bert-language-model
我有一个使用
BERT
的
情感
分析
模型
,我想通过FastAPI
预测
文本
得到结果,但总是给出否定
的
答案(我认为这是因为
预测
没有给出
预测
结果)。这是我
的
代码: import uvicornimport joblib sentiment_model = open("sentiment-analysis-model.pkl我正在使用这个<em
浏览 15
提问于2021-01-25
得票数 0
1
回答
基于
BERT
和Keras神经网络
的
文本
分类
python
、
pytorch
、
text-classification
、
bert-language-model
、
huggingface-transformers
我试图使用
BERT
运行一个二进制监督
的
文本
分类任务,但我不知道如何做到这一点。我试着用
拥抱
Face ()库运行
BERT
,但是我不知道如何处理进程
的
输出。经过大量
的
互联网搜索,我最终得到了以下课程(根据
的
说法): def __init__(self): self.tokenizer = BertTokenizer.fro
浏览 3
提问于2021-02-03
得票数 0
1
回答
使用
BERT
的
文本
分类-如何处理拼写错误
的
单词
pytorch
、
text-classification
、
huggingface-transformers
、
bert-language-model
、
misspelling
我不确定这是否是提交这类问题
的
最佳地点,也许CrossValdation会更好。 我正在研究一个
文本
多类分类问题。我构建了一个
基于
BERT
概念
的
模型
,并在PyTorch (huggingface transformer library)中实现。该
模型
执行得很好,除非输入句子有OCR错误或等效地拼写错误。例如,如果输入是"NALIBU DRINK“,
Bert
标记器会生成'na','##lib','
浏览 38
提问于2020-04-04
得票数 0
1
回答
如何使用预先训练过
的
模型
进行
文本
分类?精调
模型
与预训练
模型
的
比较
python
、
pytorch
、
huggingface-transformers
我想知道微调后
的
模型
与不经过精细调整
的
模型
相比有多大
的
改善,我想比较一下预先训练
的
模型
(
BERT
)和通过对
文本
分类
的
预训练
模型
进行微调所获得
的
模型
(微调
BERT
)
的
性能,我知道如何微调
BERT
来进行
文本
分类,但不太清楚如何直接使用
BERT
来实现classification
浏览 12
提问于2022-08-05
得票数 0
1
回答
我可以使用预先训
练好
的
YOLO来执行回归任务吗?
deep-learning
、
regression
、
conv-neural-network
、
yolo
、
transfer-learning
我计划使用YOLO来完成CNN监督下
的
回归任务。给定一张图片,
预测
它将被查看
的
次数。我倾向于使用YOLO,因为它是一个对象检测器。高浏览量
的
照片大多包含对象(
人脸
、动物、
文本
等),这些对象是YOLO最初训练
的
COCO数据集中
的
类。 我已经尝试使用预先训
练好
的
CNN
模型
(VGGNet、MobileNet等)。使用冻结
的
权重,但效果不好。微调预训练
模型
的</e
浏览 26
提问于2021-09-12
得票数 0
1
回答
基于
规则
的
方法与
基于
特征
的
方法在
情感
分析中
的
区别是什么?
python
、
nlp
、
sentiment-analysis
如果我在Python中使用TextBlob获得
文本
(正/负)
的
数据标签0/1,然后使用logistic回归进行训练和
预测
,这是
基于
特征
的
方法还是
基于
规则
的
方法?
浏览 0
提问于2021-12-05
得票数 0
1
回答
Python
情感
/
文本
分析建议
python-3.x
、
nlp
、
sentiment-analysis
我不知道这是不是问这个问题
的
合适地方,但是,我正在用Python构建一个机器人,它将在Slack通道上读取传入
的
消息,客户在那里发布他们
的
问题,如“无法连接到VPN”、“有人能回复我
的
票证”等… bot现在,我正在用TextBlob进行
情感
分析部分
的
实验,但我不知道应该使用哪些技术来根据特定
的
关键字确定问题,并为用户提供解决方案。有人能建议我一些python库/技术来实现这一点吗?
浏览 7
提问于2022-09-29
得票数 0
7
回答
为什么译码器不是伯特架构
的
一部分?
nlp
、
bert
、
machine-translation
、
attention-mechanism
我看不出伯特是如何在不使用解码器
的
情况下做出
预测
的
,这是之前所有
模型
的
一部分,包括变压器和标准RNN。如何在不使用解码器
的
情况下在
BERT
体系结构中进行输出
预测
?怎么才能完全消除解码器呢?换句话说,我可以用什么解码器和伯特一起生成输出
文本
?如果
BERT
只编码,我可以使用什么库/工具从嵌入解码?
浏览 0
提问于2019-12-21
得票数 22
回答已采纳
1
回答
BERT
与GPT
的
建筑、概念和实施差异
machine-learning
、
nlp
、
bert
、
transformer
、
gpt
在伯特纸中,我了解到
BERT
是只使用编码器
的
模型
,也就是说它只涉及变压器编码器块。我猜有什么区别。我知道编码器和解码器块之间
的
区别: GPT解码器只查看以前生成
的
令牌,并向它们学习,而不是在右侧令牌中学习。伯特编码器关注双方
的
令牌。Q1。one 2,3侧重于新/一/零短期学习。难道我们不能建立新
的
/一/零短学习
模
浏览 0
提问于2021-11-26
得票数 8
1
回答
用于
文本
分类
的
预训练
BERT
库
deep-learning
、
nlp
、
transformer
我有一个推文语料库,我正在尝试使用
BERT
进行分类。我已经使用我
的
语料库成功地预先训练了
BERT
,并且它已经生成了检查点文件。现在我需要使用这个新
的
训练
模型
,并向其添加更多
的
层。我尝试使用keras_
bert
中
的
"load_trained_model_from_checkpoint“函数,但它失败了,并出现错误"cls/predictions/transform/dense/kernel
浏览 9
提问于2020-03-05
得票数 0
3
回答
使用训
练好
的
BERT
模型
和数据预处理
nlp
、
pytorch
、
bert-language-model
当使用来自pytorch
的
预训练
BERT
嵌入(然后进行微调)时,是否应该像在任何标准NLP任务中一样对输入到
模型
中
的
文本
数据进行预处理?例如,是否应该执行词干提取、删除低频词、去大写,还是应该简单地将原始
文本
传递给“performed ers.BertTokenizer”?
浏览 3
提问于2020-09-20
得票数 4
1
回答
使用ONNX转换
模型
python
、
sentiment-analysis
、
bert-language-model
、
onnx
、
onnxruntime
伙计们,我正在做一个
情感
分析项目,我把一个
BERT
模型
转换成了一个ONNX
模型
,因为当我想给它一个可以
预测
的
巨大数据时,原来
的
模型
有一个庞大
的
运行时。但是现在我不知道如何使用这个ONNX
模型
。当我以正常
的
方式运行
模型
时,我将粘贴我
的
原始代码。 顺便说一句,如果有人建议优化这种代码或
模型
,而不需要使用ONNX或Openvino,我会很感激
的
浏览 3
提问于2022-03-30
得票数 0
回答已采纳
1
回答
训练情绪分析器
模型
的
置信度评分
machine-learning
、
scikit-learn
、
nlp
、
accuracy
、
sentiment-analysis
我已经训练了一个
基于
文本
的
情感
分析
模型
,使用SciKit-学习和定制数据。我已经准备好了
模型
,它可以很好地
预测
一个类
的
文本
(正、负或中性)。我已经达到了超过85%
的
测试精度和约80%
的
交叉验证精度。但是,我希望将每个
预测
的
置信度分数附加到一个新
的
示例数据/
文本
中,然后提供给分类器。除了
预测
的<
浏览 0
提问于2019-01-18
得票数 2
回答已采纳
2
回答
伯特架构和香草变压器架构有什么不同?
nlp
、
bert
、
transformer
、
encoder
我正在对总结任务做一些研究,发现
BERT
是从变压器
模型
中派生出来
的
。在我读过
的
关于伯特
的
每一个博客中,他们都专注于解释什么是双向编码器,所以,我认为这就是伯特不同于香草变压器
模型
的
原因。但据我所知,转换器同时读取整个单词序列,因此它也被认为是双向
的
。有人能指出我错过了什么吗?
浏览 0
提问于2020-11-30
得票数 3
回答已采纳
3
回答
RuntimeError:使用训练器API进行微调时,发现了dtype长但预期
的
浮点。
python
、
pytorch
、
huggingface-transformers
、
bert-language-model
、
fine-tune
我试图微调伯特
模型
的
情感
分析(分类为积极/消极
的
文本
)与
拥抱
脸培训API。我
的
数据集有两列,Text和Sentiment,如下所示。Text SentimentThis was bad place 0to
浏览 35
提问于2021-12-27
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
美团BERT的探索和实践
五问BERT:深入理解NLP领域爆红的预训练模型
深度迁移学习在NLP中的应用:选BERT还是被评逆天的GPT 2.0?
百分点认知智能实验室出品:情感分析在舆情中的研发实践(上)
谷歌借助ELECTRA实现更高效的NLP模型预训练
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券