我正在使用xgboost来解决数据集不平衡的分类问题。我计划使用F1得分或roc-auc的一些组合作为我判断模型的主要标准。目前,从score方法返回的默认值是准确性,但我真的希望返回一个特定的评估指标。我这么做的主要动机是,我假设模型的feature_importances_属性是由影响score方法的因素决定的,而影响预测准确性的列可能与影响roc-auc的列非常不同。下面是一些示例代码: from sklearn.model_selection import train_test_split
from xgboost
考虑到问题的多标签分类性质,我想根据f1评分来评估我的模型。现在,为了做到这一点,我声明了一个cross-validaton.Instantiate方法(给定f1分数不在xgboost中默认的评估指标之列),以便将算法目标度量与classifier).的目标度量对齐,并使用f1_macro作为评分函数(与classifier).相同)来拟合RandomizedSearchCV。现在,在对搜索进行拟合时,在培训实例中会弹出以下消息:
Multiple eval metri