腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
两种算法在FP和FN率上
的
差异
、
、
、
我正在用
logistic
回归
和不应用PCA进行二元分类。与单纯
logistic
回归
相比,PCA在
logistic
回归
前
的
应用具有较高
的
准确性
和较低
的
FNs。我想找出这种情况发生
的
原因,特别是为什么PCA产生
的
FN较少。据我所知,成本敏感性分析可能有助于解释这一点,但我不确定这是否正确。有什么建议吗?
浏览 0
提问于2018-03-13
得票数 0
回答已采纳
1
回答
交叉验证检验结果
的
稳健性(SVM,
Logistic
回归
)
、
我使用训练集和测试集对我
的
数据集进行了
Logistic
回归
和支持向量机。现在,为了检查我
的
结果是否健壮,我想执行交叉验证(我使用
的
是caret包)。., data=df, trControl=train_control, method="glm") 然而,在我看来,我似乎只是在检查我
的
logistic
回归
模型
的
准确性
(因为我使用
的
是method="如何使用交叉验证来检验
浏览 1
提问于2019-05-18
得票数 0
回答已采纳
1
回答
使用适当
的
算法
、
、
、
、
我介绍了ML算法
的
基本概念,但对于它们之间
的
优势仍然很少有疑问。什么时候应该使用
Logistic
回归
、SVM和神经网络、分类和决策树?
浏览 0
提问于2017-12-29
得票数 0
1
回答
在机器学习中标准化数据集会降低
准确性
吗?
、
、
、
首先,我对虹膜数据集使用正态
logistic
回归
,它得到了0.977
的
准确率,第二次对数据集进行预处理时,我得到了0.955
的
准确率。为甚麽呢?logreg.fit(xtrain, ytrain)print(metrics.accuracy_score(ytest, ypred1)) 带预处理
的
模型
浏览 1
提问于2020-04-20
得票数 0
1
回答
一次热编码后
的
冗余特征
、
、
我有一个名为x
的
数字特性和一个名为y
的
分类特性。 是一个序数特征(A,B,C,D,E,F)。我对我
的
y特征使用标签编码,当我使用矩阵热图看到相关时,它显示我
的
x特性与y有0.95
的
相关性。我使用
的
是
logistic
回归
算法。我应该放弃其中一个吗?
浏览 0
提问于2022-12-13
得票数 0
1
回答
您应该在哪个阶段绘制验证和学习曲线?
因此,假设我有一个二进制分类问题,我从一个
logistic
回归
模型开始。我快速地评估了模型
的
准确性
(假设我们没有倾斜
的
数据集)。在此之后,我开始实现其他模型
的
比较,我开始检查
准确性
评分,并绘制一条ROC曲线来评估AOC评分。我什么
浏览 0
提问于2020-09-14
得票数 0
1
回答
对于不平衡数据集上
的
分类任务,获得很好
的
精度但精度很低。
、
、
我有一个不平衡
的
数据集,其中正类大约是10,000个条目,负类大约是8,00000个条目。我正在尝试一个简单
的
scikit
的
LogisticRegression模型作为基线模型,其类权重=‘balanced’(希望不平衡问题应该得到解决?)。然而,我得到了一个0.83
的
精度分数,但精确
的
分数为0.03。有什么问题吗?我需要分开处理不平衡部分吗?这是我目前
的
代码:>>> target = [] >>> l
浏览 1
提问于2016-10-05
得票数 2
回答已采纳
2
回答
分类方法中
的
类减少是否提高了分类
的
准确性
?
我很想知道减少多类分类
的
监督分类模型(特别是
Logistic
回归
)中
的
类数是否有助于提高分类
的
准确性
。例如,如果我有10000个样本
的
50个类,并且通过将某些类组合在一起,将类
的
数量减少到30个。这会大大提高我
的
分类模型
的
准确性
吗?
浏览 5
提问于2016-02-09
得票数 0
1
回答
不同分类器
的
投票组合结果
的
准确性
很差。
、
、
、
我使用了以下分类器及其
准确性
:支持向量机- 78 %
Logistic
回归
- 80% 当我使用上述分类器进行最终分类时,我获得
的
准确性
低于仅使用随机森林
的
情况当单独使用时,所有的分类器都提供了多少相同
的
精度,那么随机森林如何比它们
的
合并结果更好呢?
浏览 0
提问于2015-10-06
得票数 6
回答已采纳
1
回答
如何修复“度量”
准确性
“不在结果集中。将改用AUC”
、
、
、
我正在尝试对一个分类问题运行逻辑
回归
。10,verboseIter = F,summaryFunction = prSummary) simple.
logistic
.regressionSUBSCRIBEDYN ~ .,method = "glm",trControl = train.control) simple.
logistic<
浏览 17
提问于2019-06-20
得票数 2
1
回答
神经网络(无隐层)与
Logistic
回归
?
、
、
、
、
我上过一门关于神经网络
的
课程,不太明白为什么我从
logistic
回归
和两层神经网络(输入层和输出层)中得到了不同
的
结果。输出层使用sigmoid激活函数。根据我所了解到
的
,我们可以使用神经网络中
的
sigmoid激活函数来计算概率。这应该是非常相似的,如果不是完全相同
的
逻辑
回归
试图完成
的
。然后利用梯度下降将误差降到最小。也许有一个简单
的
解释,但我不明白为什么
准确性
分数有这么大
的
差异。
浏览 1
提问于2017-09-24
得票数 10
回答已采纳
1
回答
logistic
回归
的
准确性
、
、
这是我找到
的
的
略微修改过
的
代码...cv = CountVectorizer(binary=True, max_df=0.95)>> 0.5279108613021547
浏览 14
提问于2019-08-16
得票数 0
回答已采纳
1
回答
Logistic
回归
绩效评价指标
、
、
我建立了一个
Logistic
回归
模型,并对模型
的
性能进行了评估。我想了解它
的
评估指标。 度量
的
敏感性、特异性、假阳性率、精确性、召回性和
准确性
能告诉我们关于这个模型
的
哪些信息?
浏览 0
提问于2019-03-06
得票数 1
回答已采纳
1
回答
使我
的
逻辑
回归
测试精度更接近使用Python
的
训练精度
、
、
我有一个包含656个因子
的
篮球统计数据集。我正在使用逻辑
回归
分类器通过从团队2
的
统计数据中减去团队1
的
统计数据来预测胜利者和输家(团队1
的
胜利或团队2
的
胜利)。除了标准化之外,我如何提高我
的
测试集
的
准确性
,使其更接近训练集
的
准确性
,或者只是提高总体
的
准确性
?:,656] X_train, X_test, Y_train, Y_test = train_test_
浏览 16
提问于2019-04-03
得票数 0
回答已采纳
1
回答
选择最佳
的
特征选择方法进行分类
、
、
在支持向量机和
Logistic
回归
中取得了较好
的
结果,准确率在85%左右。因此,我正在考虑
的
特征选择方法。我发现了不同
的
特性选择技术,如CfsSubsetEval、Classifier Attribute eval、classifier subset eval、Cv attribute eval、Gain我想知道哪一个是最好
的
数据集,显示出良好
的
准确性
与
Logistic
浏览 0
提问于2022-10-15
得票数 0
回答已采纳
1
回答
多个分类算法总是以相同
的
分数准确地预测。这正常吗?如果没有,我应该怀疑什么?
、
对于交叉验证,我使用重复
的
K-交叉验证.对支持向量机、
Logistic
回归
、随机森林、决策树、K-邻域和朴素贝叶斯等方法进行了实验,并采用了二值相关、分类链和标签幂集变换等方法。我注意到,对于分类链,支持向量机,
Logistic
回归
,随机森林,和K-邻居总是达到相同
的
子集
准确性
和hamming损失。对于标签Powerset,SVM,
Logistic
回归
和随机预测都取得了相同
的
分数。然而,对于二元关联,所有的分数是不同
浏览 0
提问于2018-12-03
得票数 0
2
回答
学习分类:二项式日志
回归
?
、
、
我有一个连续评分从-100到+100
的
文本。我试图把它们分为积极
的
或消极
的
。 如何执行二项式日志
回归
以获得测试数据为-100或+100
的
概率?我得到
的
最接近
的
是SGDClassifier(惩罚=‘l2’,alpha=1e-05,n_iter=10),但是当我使用二项式日志
回归
来预测-100和+100
的
概率时,这并没有提供与相同
的
结果。所以我猜这不是正确
的
功能?
浏览 5
提问于2014-08-15
得票数 3
回答已采纳
1
回答
惩罚logistc
回归
模型中特征重要性
的
提取
、
、
、
我使用来自tidymodel网站
的
这个示例来获取我自己
的
数据( )。与本例相比,我
的
数据表明,在
准确性
方面,惩罚
logistic
回归
优于随机森林。然而,在这个例子中,它没有描述如何从惩罚物流
回归
(GLMNET)模型中评估特征
的
重要性。我
的
问题是,这个模型是否选择了一些预测器进入模型?如果是,如何确定选择了哪些功能,以及如何从惩罚物流
回归
(glmnet)中找出这些特性
的
重要性?非常感谢你
的<
浏览 1
提问于2021-06-15
得票数 0
回答已采纳
2
回答
使用scikit生成困难
的
分类数据集-学习
我正在试图生成一系列
的
合成数据集使用make_classification在科学学习,与不同
的
样本大小,概率(即比例
的
积极类),和
准确性
。改变样本
的
大小和流行率是相当简单
的
,但我有困难生成任何数据集,其
准确性
低于50%使用
logistic
回归
。使用信息列
的
数量、每个类
的
集群数以及flip_y参数(它随机地翻转给定比例
的
观测结果)似乎降低了
准确性
,但没有我想要<em
浏览 5
提问于2015-06-08
得票数 1
回答已采纳
0
回答
R& python中
Logistic
回归
的
差异
、
、
、
我一直在用R创建
Logistic
回归
,现在我在Python中尝试了同样
的
方法,我注意到它没有显示F统计数据或调整后
的
R值等。我们有一个测试来运行模型
的
准确性
,仅此而已。这是通常使用Python检查模型适用性
的
方式吗?
浏览 4
提问于2017-11-24
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Sklearn之Logistic回归
分类(1):logistic回归
机器学习(七)——logistic回归
机器学习——logistic回归实践
机器学习之Logistic回归
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券