腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(635)
视频
沙龙
1
回答
随机
森林
、
SVM
和
带
R
的
多项
Logistic
回归
r
我对
r
或任何类型
的
编码几乎一无所知。我正在上一门需要使用
r
分析数据
的
课程。我
的
最后一个项目是从智能手表下载
和
划分加速度计数据。我已经成功地做到了这一点。然后我必须运行四个模型,如决策树,
随机
森林
,
多项
逻辑
回归
和
SMV。我只是让决策树正常工作。 这个文件如此之大,有350万个观察值,我不得不选择极小百分比
的
数据才能在不超时
的
情况下运行。请解释它,就像你在给一个孩子解
浏览 10
提问于2019-12-06
得票数 0
回答已采纳
1
回答
需要建议,Python中
的
分类问题:我应该使用决策树、
随机
森林
还是
Logistic
回归
?
python
、
classification
、
random-forest
、
logistic-regression
、
decision-trees
概述
的
数据集,我正在工作,考虑一个团队,每年玩一个5场比赛
的
主场时间表。我
的
目标是找出那些最有可能在即将到来
的
赛季中失败
的
球迷,这意味着他们不更新他们
的
赛季通行证。这是我
的
Y变量。这张表是前一年
的
数据,所以我也有实际
的
Y值(那些过去
和
没有更新他们
的
赛季通行证的人)。 第二张是我对即将到来
的
赛季
的
预测,关于是否有人会更新他们
的
赛季通行证。对本年度<
浏览 0
提问于2018-03-16
得票数 -1
1
回答
将KMeans应用于大熊猫DataFrame
python
、
pandas
、
k-means
train_test_split stands for: y=newTotalDataset['identifier']问题是当我打印“标签”时,因为它说所有行都属于person 0。 标签中
的
计数器0
和
1
的
结果是:计数
浏览 0
提问于2018-06-14
得票数 0
回答已采纳
2
回答
当有多个标签时,分类器很好
classification
、
methods
我在问自己,在尝试使用多个(>100)标签对数据进行分类时,是否还有比深度人工神经网络更好
的
方法。有什么建议吗?例如,逻辑
回归
似乎不合适,因为在它
的
基本形式中,它只支持两个标签,对吗?
浏览 0
提问于2021-11-21
得票数 4
1
回答
多个分类算法总是以相同
的
分数准确地预测。这正常吗?如果没有,我应该怀疑什么?
classification
、
multilabel-classification
对于交叉验证,我使用重复
的
K-交叉验证.对支持向量机、
Logistic
回归
、
随机
森林
、决策树、K-邻域
和
朴素贝叶斯等方法进行了实验,并采用了二值相关、分类链
和
标签幂集变换等方法。我注意到,对于分类链,支持向量机,
Logistic
回归
,
随机
森林
,
和
K-邻居总是达到相同
的
子集准确性
和
hamming损失。对于标签Powerset,
SVM</em
浏览 0
提问于2018-12-03
得票数 0
1
回答
选择算法来测试它们对情感分析性能
的
影响
nlp
、
logistic-regression
、
sentiment-analysis
我是一个新兴
的
数据分析师,并致力于我
的
第一个广泛
的
项目,是关于NLP
和
情绪分析。 我使用了
随机
森林
,多元朴素贝叶斯,伯特等模型。然而,我也在尝试实施逻辑
回归
,并偶然发现了它
的
代码,但他们没有提到“
多项
式”。当我在网上阅读时,我发现存在多个
Logistic
回归
。我
的
问题是:我是用
LOGISTIC
回归
还是
多项
式
LOGISTI
浏览 8
提问于2022-09-04
得票数 0
1
回答
我
的
模型在任意
随机
特性下表现得更好。我怎么解释这个?
machine-learning
、
feature-selection
我用不同
的
核训练了6种不同
的
分类器“决策树”、“
随机
森林
”、“
Logistic
回归
”
和
“
SVM
”。约有80个因变量,包括分类变量和数值变量。在我
的
实验中,我添加了一个“
随机
”列,它是由任意
随机
数生成
的
,但是所有模型在验证集
和
测试集上都表现得更好。对这种现象有什么好
的
解释吗?
浏览 0
提问于2019-09-27
得票数 1
1
回答
算法选择原理(
随机
森林
与
Logistic
回归
与
SVM
)
machine-learning
、
algorithms
我想了解选择ML算法
的
标准,即在这种情况下选择哪种算法
的
准则是什么?
Logistic
回归
将被选择,以防我们想建议对y变量
的
影响对任何x变量
的
变化。
随机
森林
对混合数据有很好
的
效果,对于分类数据非常有效。此外,它首先进行特征选择(因此不需要降维)。
随机
森林
因其处理时间长,不适合于高性能、多类别数据
的
采伐。支持向量机能很好地处理狗对猫图像处理中<e
浏览 0
提问于2020-01-07
得票数 2
回答已采纳
1
回答
如何使用scikit-learn预测具有分类
和
连续特征
的
二元结果?
python
、
r
、
machine-learning
我需要为分类问题选择模型
和
机器学习算法
的
建议。在用
R
或Python实现时,我不确定从哪里开始。 谢谢!
浏览 3
提问于2016-07-29
得票数 1
1
回答
如何使用Spark上
的
交叉验证对
SVM
和
DT进行数据分割
apache-spark
、
svm
、
cross-validation
我在我
的
项目中使用Spark MLlib。我使用了支持向量机,决策树
和
随机
森林
。我已经将数据集分为训练
和
测试(60%
的
训练,40%
的
测试),并得到了我
的
结果。我想重复我
的
工作,但使用交叉验证来分割数据,而不是使用
SVM
、DT
和
RF
的
百分比分割。 我怎么能在Spark上做到这一点呢?我找到了几个使用
logistic
回归
和
管道进行拆
浏览 48
提问于2019-01-01
得票数 1
1
回答
weka中
的
多级范畴变量
weka
我是数据挖掘
的
初学者。我在用weka。该数据集有109个变量,其中许多是具有多个级别(1至8)
的
名义变量。我
的
问题是: 1.我是否应该将范畴变量(多达8级)转换为二进制变量或按原样使用?注:我将使用
logistic
回归
,
随机
森林
,朴素贝叶斯算法。
浏览 3
提问于2014-10-04
得票数 0
回答已采纳
3
回答
何时使用
随机
森林
python
、
regression
、
random-forest
、
logistic-regression
我知道
随机
森林
模型可以用于分类
和
回归
情况。 是否有更具体
的
标准来确定
随机
森林
模型在估计值时比一般
回归
(线性、拉索等)或
Logistic
回归
进行分类时表现得更好?
浏览 0
提问于2019-06-29
得票数 5
1
回答
支持向量机需要很长时间来进行参数整定。
classification
、
svm
、
logistic-regression
、
random-forest
我在上运行支持向量机、
Logistic
回归
和
随机
森林
。我
的
训练数据集具有形状(454491,30)。F1 score: 0.9999383944188953我选择支持向量机,因为
随机
森林
容易过度拟合,支持向量机得分优于
Logistic
回归
。我还在数量
和
时间列上使用了Robust
浏览 7
提问于2020-09-11
得票数 0
回答已采纳
2
回答
如何平衡某个类
的
样本数量非常多
的
训练数据集?
machine-learning
、
dataset
、
scikit-learn
、
random-forest
、
sampling
数据集具有5个类别{0,1,2,3,4},其中0是非常负
的
,而4是非常正
的
。数据集是高度不平衡
的
,'0': 7072 (4.5%), '1': 27273 (17.4%), '2': 79583 (50.9%), '3': 32927(21%), '4': 9206 (5.8%) 如你所见,2类有近50%
的
样本,0
和
5贡献了约10%
的
训练
浏览 5
提问于2014-11-19
得票数 1
1
回答
非平衡数据集上
的
Logistic
回归
与
随机
林
random-forest
、
logistic-regression
我有一个不平衡
的
数据集,其中阳性仅占整个样本
的
10%。我使用
logistic
回归
和
随机
森林
进行分类。通过对这些模型结果
的
比较,发现0,1
和
0,0.6之间
的
logistic
回归
结果在概率输出上存在一定
的
差异。我不能分享数据集,但我怀疑这些算法
的
工作。
随机
森林
如何产生小于0.6
的
概率?
浏览 0
提问于2020-07-23
得票数 1
回答已采纳
4
回答
我应该使用决策树或逻辑
回归
来进行分类吗?
classification
、
logistic-regression
、
decision-trees
我有一个包含相同数量
的
分类变量
和
连续变量
的
数据集。如何在决策树
和
逻辑
回归
之间决定使用哪种技术? 假设
logistic
回归
更适合连续变量,决策树更适合连续变量
和
范畴变量,这是否正确?
浏览 0
提问于2015-06-09
得票数 17
回答已采纳
1
回答
集合学习Python-
随机
森林
,支持向量机,KNN
python
、
scikit-learn
、
svm
、
random-forest
、
knn
我试图将
随机
林分类器、支持向量机分类器
和
KNN分类器集成起来。在这里,我使用VotingClassifier
和
GridSearchCV进行集成。如果我尝试使用
Logistic
回归
、
随机
森林
和
高斯,代码运行良好。下面是我尝试使用
随机
森林
、KNN
和
SVM
的
尝试。X_test) print('Accuracy score : {}%'.format(
浏览 5
提问于2021-05-14
得票数 0
回答已采纳
2
回答
哪种机器学习算法更适合于二进制分类?
classification
、
binary-classification
我们知道有许多不同类型
的
分类算法。但是在不同类别的分类算法中,哪些算法适合于二进制分类,哪些算法适用于更多
的
类,为什么?
浏览 0
提问于2021-11-29
得票数 2
回答已采纳
1
回答
为什么在小数据集中,打包或增强算法比基本算法具有更高
的
精度?
machine-learning
、
python
、
scikit-learn
、
random-forest
、
logistic-regression
但是,总
的
数据集现在大约是520个值。我首先应用了
Logistic
回归
和
SVM
分类器等基本算法,由于我们都知道,对于不平衡
的
数据集,精度不是一个很好
的
精度度量,所以我使用F1评分
和
回忆评分。在
logistic
回归
分析中,支持向量机
的
F1评分为78%,0级为80%,0级为近99%,1级为72%,表明该方法是过分拟合
的
。但令我惊讶
的
是,我发现兰登
森林
浏览 0
提问于2018-08-29
得票数 1
回答已采纳
5
回答
选择二进制分类算法
classification
、
binary
、
svm
、
random-forest
、
logistic-regression
我有一个二进制分类问题:10个属性,包括二进制、数字
和
范畴 这类问题
的
最佳选择是哪种算法?默认情况下,我将从
SVM
(将标称属性值转换为二进制特性)开始,因为它被认为是相对干净且不含噪声
的
数据
的
最佳选择。
浏览 0
提问于2014-06-15
得票数 20
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券