腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(1081)
视频
沙龙
1
回答
BERT
和
ALBERT
的
训练
数据
损失
大
,
准确率
低
python
、
tensorflow
、
machine-learning
、
keras
、
deep-learning
据我所知,在
BERT
和
ALBERT
中,微调应该会给我大约80%或更多
的
准确率
,但我甚至无法接近这个数字: Train on 3600 samples, validate on 400 samples Epoch,如果我在最后一个密集层之前使用dropout层,如果我在最后一个密集层之前使用另一个密集层,或者如果我使用
Albert
而不是
BERT
,我总是具有
低
精度
和
高
损失
,并且通常,验证精度高于
训练
精度
浏览 186
提问于2020-04-23
得票数 4
1
回答
非常
低
的
损失
和
低
精度是否表示过拟合?
tensorflow
、
keras
、
deep-learning
、
conv-neural-network
、
lstm
我正在
训练
一个CNN-LSTM concat模型,经过20个时期后,我得到了69%
的
准确率
和
0.04 %
的
损失
?我知道非常高
的
训练
精度
和
相对较低
的
验证精度
的
组合表示过拟合,但我想知道
低
精度
和
非常
低
的
损失
是否也表示过拟合。 总体而言,
准确率
呈线性增加,
损失
呈指数下降。
浏览 37
提问于2020-01-30
得票数 0
回答已采纳
1
回答
在使用神经网络进行文本分类时,
准确率
和
损失
之间是否存在直接关系?
tensorflow
、
recurrent-neural-network
、
text-classification
、
loss-function
、
cross-entropy
我
的
网络在一定
的
准确性下遭受了94%,80%,有时甚至100%
的
巨大
损失
。令人惊讶
的
是,在验证
准确率
为64%
的
情况下,
损失
为96%。我想要理解
的
是,所发生
的
损失
是否与准确性有直接关系,或者准确性是基于正确获取
的
数据
计算
的
。我使用分类交叉函数来估计
损失
。
浏览 196
提问于2020-11-10
得票数 0
1
回答
这是
训练
模特
的
有效方法吗?
训练
损失
在1.1921 e-07?
machine-learning
、
deep-learning
、
keras
、
cnn
当我
训练
角星模型
的
时候,我得到了这个日志。Epoch 49/50据我所知,在
训练
一个模型时,我知道理想
的
损失
应该是1到10 (不确定),但我在e-07
的
训练
中遇到了这个
损失
值。这是有效
的
训练
吗?还是我哪里做错了??
浏览 0
提问于2019-08-01
得票数 0
1
回答
在纪元
训练
期间,准确性
的
突然提高表明了我
的
模型
的
哪些方面?
python
、
neural-network
、
tensorflow2.0
、
conv-neural-network
我现在正在学习卷积神经网络,并在kaggle数字识别器(MNIST)
数据
集上进行练习。在
训练
数据
时,我注意到,尽管最初
的
准确率
逐渐提高,但两者之间有一个巨大
的
跃升,即从0.8984到0.9814。作为一个初学者,我想调查一下我
的
模型在这次跳跃中到底展示了什么。这是时代
的
图像:,我用黄色圈出了跳跃。提前感谢!
浏览 2
提问于2020-09-26
得票数 0
1
回答
当我
训练
CNN时,我如何解释每一个时代
的
损失
和准确性?
machine-learning
、
neural-network
、
classification
、
cnn
我对神经网络非常陌生,我正在
训练
CNN进行图像分类,在
训练
过程中,我得到以下信息:这告诉我
训练
的
损失
和准确性,验证
的
损失
和准确性,如果我错了,请纠正我。,这些量是什么?有什么方法可以理解我,如果我看他们
的
问题做得很好的话?
浏览 0
提问于2020-12-09
得票数 0
回答已采纳
1
回答
阿尔伯特不收敛- HuggingFace
machine-learning
、
nlp
、
text-classification
、
transformer-model
、
huggingface-transformers
我正在尝试将经过预先
训练
的
HuggingFace阿尔伯特转换器模型应用到我自己
的
文本分类任务中,但
损失
不会超过某个点。这是我
的
密码:0, 1, 2, 3maxlen=25from transformersencodings.append(tokenizer.encode(t, max_le
浏览 0
提问于2020-06-20
得票数 4
3
回答
准确率
、召回率
和
F-score
precision-recall
我正在开发一个新
的
系统,它是基于信息检索
的
概念。我
的
系统从网上检索研究文章
的
pdf
和
ppt文件。当我计算系统
的
精确度、召回率
和
f分时,我已经产生了怀疑。我想从小组成员那里澄清这一点。令人怀疑
的
是,
准确率
、召回率
和
f-score之间是否会有巨大
的
差异。因为我计算
的
准确率
大约是0.913,召回率非常
低
,比如0.3234,f-score大约是0.432
浏览 3
提问于2011-08-23
得票数 1
1
回答
二分类神经网络给出了很低
的
误报率
和
很高
的
假阴性率。有谁能解释一下
machine-learning
、
neural-network
、
statistics
、
data-science
、
probability
我正在对不平衡
数据
进行二进制分类,比率为( 22 :1)意味着如果有22个正面例子,那么就有1个负面例子。我通过使用Over-Sampling来处理这个不平衡问题,它添加了来自少数类
的
示例副本,以平衡正类
和
负类。 现在我
训练
了神经网络模型。对于评估,我对
低
假阳性率(FPr)
和
低
假阴性率(FNr)感兴趣,但它给了我意想不到
的
结果,非常
低
的
假阳性率(0.02%)
和
非常高
的
假阴性率(82
浏览 54
提问于2019-12-13
得票数 0
1
回答
停止CNN模型在高精度
和
低
损失
率?
machine-learning
、
python
我用大量
的
历次
训练
我
的
CNN模型,每次我打印
训练
损失
和准确性,但是在这两个指标中有很多高
和
低
,我想提前停止,例如,
损失
0.2,
准确率
在%95或更高,因为我在不止一个时期得到了这个值,我
的
问题是: 1-列车组或验证组是否提前停车2-如果在验证集上,我是否应该为每一个具有火车组丢失和准确性
的
时代打印验证
损失
和准确性?
浏览 0
提问于2019-01-25
得票数 2
回答已采纳
1
回答
为什么在tensorflow 2中使用tf.GradientTape
的
训练
与使用fit API
的
训练
有不同
的
行为?
python
、
tensorflow
、
keras
、
deep-learning
、
tensorflow2.0
因此,我在fit
和
tf.GradientTape上
的
CiFAR-10
数据
集上实现并比较了一个简单
的
图像分类器,并分别
训练
了20个时期。运行几次后,结果如下 用tf.
浏览 5
提问于2020-01-14
得票数 2
回答已采纳
2
回答
验证
损失
<
训练
损失
和验证精度<
训练
精度
keras
、
accuracy
、
loss-function
我得到了以下结果:val_loss (远)低于train_loss,但是与培训集相比,验证
的
accuracy也更低。这怎么可能?Epoch 5/10这是我使用
的
Keras
浏览 0
提问于2018-01-03
得票数 0
3
回答
快速绘图验证
和
训练
准确性
python
、
python-3.x
、
machine-learning
、
plot
、
fast-ai
我以前使用过Keras,然后我用这种方式绘制了
数据
集
的
训练
和
验证精度-plt.plot(history.history['val_accuracy'])learn.recorder
浏览 0
提问于2020-06-23
得票数 2
1
回答
损失
函数负对数似然
损失
,尽管
准确率
极高
nlp
、
pytorch
、
loss
、
log-likelihood
、
sequence-to-sequence
我正在调试一个序列到序列模型,并故意尝试完美地拟合一个大约200个样本(长度在5-50之间
的
句子对)
的
小
数据
集。我在pytorch中使用负对数似然
损失
。我得到了很低
的
损失
(~1e^-5),但在同一
数据
集上
的
准确率
只有33%。 我也在3个样本上
训练
了模型,并获得了100%
的
准确率
,但在
训练
过程中我遇到了
损失
。我
的
印象是,如果预测标
浏览 9
提问于2020-07-14
得票数 2
1
回答
低
损失
和相同预测等级
的
原因?
deep-learning
、
loss-function
、
accuracy
我正在为二进制分类
训练
一个cNN。我使用了128批大小,
损失
正在减少,准确度随着时间
的
推移而增加。最终精度达到0.99以上,
损失
小于0.3。但再过几个年代,该模型收敛到了0.6,精度下降了0.5。对模型
的
检验表明,它总是预测0.5。我用二元交叉熵作为
损失
函数。对于每一个时代,所有的
数据
点都会被洗牌。我用
的
是SGD,学习率是0.01。 我是否以较低
的
准确率
,但相当好
的
损失
值,达到了局
浏览 0
提问于2018-03-01
得票数 0
回答已采纳
2
回答
我不能理解我
的
CNN多类分类模型是否过拟合?
python
、
tensorflow
、
keras
、
evaluation
、
conv-neural-network
良好
的
训练
,测试
和
验证
的
准确性,但奇怪
的
历史准确性
的
模型行为:这是我
的
模型
的
总结: ? 我执行了执行
和
预测任务,得到了下一个混淆矩阵: ? 而
准确率
行为紧随其后: ? 添加
损失
图以在下一篇文章中阐明更多内容 ? 提前感谢您
的
任何有用
的
信息
和
帮助!
浏览 90
提问于2020-08-11
得票数 1
回答已采纳
1
回答
从
bert
创建单词嵌入,并将它们输入随机林进行分类
machine-learning
、
nlp
、
data-science
、
classification
、
bert-language-model
我已经使用伯特基地预先
训练
的
512个维度
的
模型来生成上下文特征。将这些向量提供给随机森林分类器可以提供83 %
的
准确率
,但在各种研究中,我已经看到伯特最小值提供了90 %
的
准确率
。我也有其他一些特性,如word2vec,词汇,TFIDF
和
标点符号功能。即使我合并了所有的功能,我也得到了83 %
的
准确率
。我作为基础论文
的
研究论文提到了92 %
的
准确率
,但是他们使用了
浏览 21
提问于2022-04-01
得票数 0
1
回答
为什么我
的
验证
损失
在上升,而我
的
验证准确性也在上升?
deep-learning
、
tensorflow
场景:我一直在为cifar10
数据
集
训练
CNN。我使用
的
是tensorflow,还有一个CNN,它有12个conv层
和
1个密集层,在softmax稠密层之前。我正在使用
数据
增强以及批处理规范化。在几百个历次之后,我对验证集
的
准确率
最高达到92.73 %。验证
损失
略有上升,因为我
训练
更多。一个时代给了我0.295<em
浏览 0
提问于2020-01-23
得票数 3
回答已采纳
2
回答
如何使用监督学习从大
数据
集中提前识别关键特征,其中大多数
数据
属于一个类别
machine-learning
、
classification
我有一个从机器(流
数据
)中提取
的
非常
大
的
数据
集,其中大多数
数据
属于一个类别。如果我使用当前
数据
训练
分类器,
准确率
将非常
低
。如何识别给定
数据
中
的
关键特征?另外,我如何测量时间序列中一些先前特征
的
概率?
浏览 2
提问于2015-06-26
得票数 0
3
回答
精密微调预培训变压器
nlp
、
transfer-learning
、
transformer
预先
训练
的
变压器(GPT2,
Bert
,XLNET)由于其传输学习能力而广受欢迎
和
有用。 作为提醒:迁移学习
的
目的是传递从一个领域/任务中获得
的
知识,并使用该转移/使用该知识来解决一些相关任务。这是通过对大量标签
数据
(我们已经拥有并且可能很容易获得)进行模型培训来完成
的
,然后删除最后几层,用与任务相关
的
数据
集对新
的
相关任务进行微调。因此,我通过冻结前10层(总共11层+1层),减少
浏览 0
提问于2020-08-12
得票数 4
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券