腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(565)
视频
沙龙
1
回答
对
多
类
问题
执行
K
折
交叉
验证
,
评分
= '
f1
or
Recall
or
Precision
‘
、
、
、
、
我知道对于二进制分类
问题
,这很容易实现。但在
多
类
问题
的情况下,这似乎有点困难。 我有一个不平衡的数据集,这是一个4
类
分类
问题
的例子。现在,我希望在具有10个拆分的训练集上
执行
K
折
交叉
验证
,并且我希望cross_val_score()函数的'scoring'参数为'
f1
'而不是'accuracy'。classifier_RF
浏览 42
提问于2021-02-09
得票数 0
1
回答
如何计算角点顺序模型的准确性、查准率和召回率,以及
F1
评分
?
、
、
、
、
我想为
多
类
分类
问题
计算准确度、查准率和召回率,以及
F1
评分
.我正在使用下面提到的这些代码行。+
K
.epsilon()) def
recall
(y_true,=
precision
(y_true, y_pred)
recall
=
浏览 0
提问于2019-11-11
得票数 2
1
回答
对
整个数据集进行
K
-折叠
交叉
验证
、
、
、
、
train_test_split(然后,在定义CatBoostClassifier之后,我使用我的训练集
执行
交叉
验证
的我现在可以使用整个数据集来
执行
k
折
交叉
验证
,以便评估模型吗?', 'roc_auc', '
recall
', '
precision
'
浏览 21
提问于2020-05-24
得票数 0
回答已采纳
1
回答
宏
F1
结果高于不平衡数据集的精度
、
、
作者使用精确性、精确性、查全性和
F1
给出了结果,但没有具体说明他们在
F1
度量(macro、micro、weighted等)上应用哪种平均值。以下是研究结果:如果您注意到最后一个系统,精度值是0.689,
F1
值是0.717,这比精度要高。 因此,给出数据集的不平衡状态,作者是否可能使用
F1
度量中的
类
平均使用macro方法?
对
我来说,这“不可能”发生,我认为他们可能使用了weighed
F1
评分
。
浏览 0
提问于2020-02-18
得票数 1
1
回答
如何计算分层
K
折
交叉
验证
中不平衡数据集的假阳性率?
、
、
、
、
下面几行是示例代码,我可以在其中计算准确率、精确度、召回率和
f1
分数。如何计算分层
K
折
交叉
验证
的假阳性率(FPR)?from sklearn.metrics import make_scorer, accuracy_score,
precision
_score,
recall
_score, fromsklearn.model_selection import cross_validate scoring = {'accuracy'
浏览 32
提问于2021-11-14
得票数 1
1
回答
多
类
分类集合库自定义数据集的精度、召回、
f1
评分
、
、
、
、
我试图对句子
对
任务进行
多
类
分类。我上传了我的自定义数据集的训练和测试分别在拥抱脸数据集和训练我的模型和测试,并试图看看
f1
的分数和准确性。我试过了metric1 = load_metric("
precision
") metric2 = l
浏览 12
提问于2022-05-24
得票数 2
1
回答
如何将性能度量从精确性更改为精确性、召回性和下面代码中的其他指标?
、
、
、
作为一个科学知识的初学者,并试图
对
虹膜数据集进行分类,在
交叉
验证
阶段,我在将
评分
标准从scoring='accuracy'调整到其他方面时遇到了
问题
,比如精度、召回、
f1
等等。mean and std for each modelresults = []for name, model in models: #below, we do
k
-fold=‘准确性’,我想评估这个
多
类
浏览 0
提问于2019-02-01
得票数 0
回答已采纳
1
回答
不同指标的
交叉
验证
- Sklearn
、
、
、
当我使用Python的Sklearn进行
交叉
验证
并获取不同指标(准确性、精确度等)的分数时。= cross_val_score(classifier, X_train, y_train, scoring='
precision
', cv=10)对于不同的指标,每次
执行
cross_val_score()函数都会产生相同的10倍
浏览 3
提问于2018-03-13
得票数 0
5
回答
使用cross_val_score函数计算精确性和召回率
、
、
、
、
我正在使用scikit
对
垃圾邮件/火腿数据
执行
逻辑回归。我用这种方式训练了自己的LogisticRegression:classifier.fit(X_train, y_train)
recall
= cr
浏览 2
提问于2014-12-08
得票数 21
回答已采纳
1
回答
度量不平衡
多
类
问题
的度量
我有一个
多
类
的不平衡
问题
。因变量如下所示。: 0.879571098748252 print ('
precision
score:',
precision
_score(test_y,ry_pred, average='macro')) 所以,我的
问题</em
浏览 0
提问于2018-11-16
得票数 2
1
回答
我是否应该
对
我的
验证
数据进行过抽样,以获得更好的
F1
分数和中华人民共和国?
、
、
、
、
我目前正在处理的数据集是不平衡的,大约30
k
行*14个特性(正如您所知),99.5%的数据被标记为0。由于模型有很强的不平衡性,所以我决定使用精确/召回/
F1
评分
来决定模型的性能。我使用SMOTE
对
我的培训数据进行了过度采样(在对所设置的
验证
进行分割之后)。现在,我的模型使用过采样的培训数据进行了培训,我将使用
验证
集
对
其进行测试。如果我只是在原始
验证
数据上
验证
它,我得到一个
F1
评分</em
浏览 0
提问于2019-02-23
得票数 3
1
回答
宏观指标(召回/F1.)
多
类
有线电视新闻网
、
、
、
我使用CNN
对
不平衡数据集进行图像分类。我
对
tensorflow后端完全陌生。这是
多
类
问题
(不是
多
标签
问题
),我有16个
类
。
类
是一个热编码。 print (" — val_f1: %f — val_
precision
: %f — val_
recall
%f"
浏览 0
提问于2019-05-22
得票数 6
2
回答
用于
多
类
分类的Keras精度度量
、
、
我正在训练CNN
多
类
图像分类为4幅图像,我应该使用什么样的精度度量从Keras。我的标签不是一个热编码,因为我试图预测不同图像的概率。
浏览 0
提问于2023-05-13
得票数 0
回答已采纳
1
回答
关于分类评价方法的探讨
、
、
、
在我的研究中,我正在处理4
类
分类的
问题
。我想要计算准确,精确和召回。由于数据数量较少(约为30),如何将数据划分为训练集和测试集会影响
评分
。当
执行
交叉
验证
时,方差很大(例如精度为0.83333333,0.72727273,0.44444444),我
对
评估该分类器感到困惑。在这种情况下,我是
执行
交叉
验证
100次还是500次,并计算
验证
分数的平均值?这是一个非常初级的
问题
和糟糕的英语,
浏览 0
提问于2018-12-02
得票数 0
回答已采纳
1
回答
计算角膜微F-1
评分
、
、
、
、
我有一个包含15个不平衡
类
的数据集,并试图使用keras进行
多
标签分类。from keras import backend as
K
def
recall
(y_true, y_pred)) """
浏览 4
提问于2021-03-09
得票数 3
回答已采纳
2
回答
在scikit-learn中使用
交叉
验证
时绘制精度-召回曲线
、
我正在使用
交叉
验证
来评估具有scikit-learn的分类器的性能,并且我想要绘制精度-召回率曲线。我在scikit-learn`s的网站上找到了来绘制PR曲线,但它没有使用
交叉
验证
进行评估。在使用
交叉
验证
时,如何在scikit学习中绘制精确召回曲线?我
执行
了以下操作,但我不确定这是否是正确的方法(psudo代码):
precision
,
recall
, _ =
p
浏览 2
提问于2014-10-27
得票数 7
2
回答
应考虑哪种方法来评价不平衡的
多
类
分类?
、
、
、
、
我在研究
多
类
不平衡的数据。我的因变量是高度倾斜的。score: 0.8110616374089428 AUC Score: 0.8582962280567071
Recall
score: 0.3602869806251181
F1
score请建议是否有任何方法来提高精确度,回忆和A
浏览 0
提问于2018-11-07
得票数 1
1
回答
使用支持向量机计算准确率、召回率和准确率
、
我已经在matlab中训练了支持向量机,然后我将我的模型转移到OpenCV中来检测汽车的尾部。下面是代码。neg_mat = matfile('negfeat.mat'); % negative samples negRow = neg_mat.bigmat
浏览 7
提问于2015-09-09
得票数 1
1
回答
在KNN中通过插入包使用
F1
评分
标准
、
、
我试图使用
F1
评分
来确定哪个
k
值能够使模型达到给定的目的。该模型是通过train函数在caret包中建立的。示例数据集:
f1
<- function(data, lev = NULL, model = NULL) { f1_val <- (2*
precision
*
recall
)
浏览 2
提问于2018-03-24
得票数 4
2
回答
roc_auc的值有什么不同?
、
我使用sklearn
对
我的二进制分类数据集使用10
折
交叉
验证
,如下所示。我用"accuracy","
precision
_weighted","
recall
_weighted","f1_weighted“来衡量我的结果。scores = cross_validate(clf, X, y, cv=
k
_fold, scoring=("accuracy", "
precis
浏览 55
提问于2019-12-23
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
9,模型的评估
机器学习?必须先懂损失函数!
机器学习三人行-手写数字识别实战
第三章总结,分类问题 Summary of Chapter 3,Classification
机器学习算法常用指标总结
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券