在我的工作中,我拆分了数据,然后使用了过采样(由于分布不平衡)和特征选择。我想使用分类器XGboost,但我得到了以下错误。 ValueError Traceback (most recent call last)
<ipython-input-16-ace98cb7898f> in <module>()
5 model.fit(X_train, y_train)
6 # make predictions for test data
----> 7 y_pred = model
我有一个分类问题,我必须使用投票分类器方法找到前3个特征,其中包含PCA,xgboost,随机森林,逻辑注册和决策树。
我是一个初学者,我不知道如何使用投票分类器来获得特征重要性。
from sklearn.linear_model import LogisticRegression
from sklearn.ensemble import RandomForestClassifier
from sklearn.ensemble import GradientBoostingClassifier
from sklearn.decomposition import PCA
fro
我使用一个简单的XGBoost模型来对二进制上下文中的2个类(0和1)进行分类。对于原始数据,0是多数类,1是少数类。正在发生的事情是,在分类的情况下,大多数的0是正确的分类,其中很多是1s,但大多数1被错误地分类为0。
我对此相当陌生,在查看了有关SE的各种文档和问题之后,对于如何指定我的XGBoost模型以支持1类(准确地说,如果大多数0被错误地分类为1s,这不是一个问题,但我希望大多数1s被正确地归类为1s ),我真的很困惑(如果存在假阳性,这不是什么问题)。我目前用于训练和测试XGBoost的代码段如下(之后,我使用了混淆矩阵,其中真正的正数(1s)被高度错误地分类为0)。
from