首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Kaggle比赛大杀技!stacking的基本思想及代码实现

原创干货文章第一时间送达!

推荐阅读时间:8min~15min

主要内容:stacking的基本思想及代码实现

本文主要介绍机器学习中的一种集成学习的方法 stacking,本文首先介绍 stacking 这种方法的思想,然后提供一种实现 stacking 的思路,能够简单地拓展 stacking 中的基本模型。

1

stacking 的基本思想

stacking 就是将一系列模型(也称基模型)的输出结果作为新特征输入到其他模型,这种方法由于实现了模型的层叠,即第一层的模型输出作为第二层模型的输入,第二层模型的输出作为第三层模型的输入,依次类推,最后一层模型输出的结果作为最终结果。本文会以两层的 stacking 为例进行说明。

stacking 的思想也很好理解,这里以论文审稿为例,首先是三个审稿人分别对论文进行审稿,然后分别返回审稿意见给总编辑,总编辑会结合审稿人的意见给出最终的判断,即是否录用。

对应于stacking,这里的三个审稿人就是第一层的模型,其输出(审稿人意见)会作为第二层模型(总编辑)的输入,然后第二层模型会给出最终的结果。

stacking 的思想很好理解,但是在实现时需要注意不能有泄漏(leak)的情况,也就是说对于训练样本中的每一条数据,基模型输出其结果时并不能用这条数据来训练。

否则就是用这条数据来训练,同时用这条数据来测试,这样会造成最终预测时的过拟合现象,即经过stacking后在训练集上进行验证时效果很好,但是在测试集上效果很差。

为了解决这个泄漏的问题,需要通过 K-Fold 方法分别输出各部分样本的结果,这里以 5-Fold 为例,具体步骤如下

(1) 将数据划分为 5 部分,每次用其中 1 部分做验证集,其余 4 部分做训练集,则共可训练出 5 个模型

(2) 对于训练集,每次训练出一个模型时,通过该模型对没有用来训练的验证集进行预测,将预测结果作为验证集对应的样本的第二层输入,则依次遍历5次后,每个训练样本都可得到其输出结果作为第二层模型的输入

(3) 对于测试集,每次训练出一个模型时,都用这个模型对其进行预测,则最终测试集的每个样本都会有5个输出结果,对这些结果取平均作为该样本的第二层输入

上述过程图示如下

除此之外,用 stacking 或者说 ensemble 这一类方法时还需要注意以下两点:

Base Model 之间的相关性要尽可能的小,从而能够互补模型间的优势

Base Model 之间的性能表现不能差距太大,太差的模型会拖后腿

2

代码实现

由于需要 stacking 中每个基模型都需要对数据集进行划分后进行交叉训练,如果为每个模型都写这部分的代码会显得非常冗余,因此这里提供一种简便实现 stacking 的思路。

具体做法就是先实现一个父类,父类中实现了交叉训练的方法,因为这个方法对所有模型都是一致的,然后声明两个方法,train和predict,由于采用的基模型不同,这两个方法的具体实现也不同,因此需要在子类中实现。下面以 python 为例进行讲解

importnumpyasnp

fromsklearn.model_selectionimportKFold

classBasicModel(object):

"""Parent class of basic models"""

deftrain(self, x_train, y_train, x_val, y_val):

"""return a trained model and eval metric of validation data"""

pass

defpredict(self, model, x_test):

"""return the predicted result of test data"""

pass

defget_oof(self, x_train, y_train, x_test, n_folds =5):

"""K-fold stacking"""

num_train, num_test = x_train.shape[], x_test.shape[]

oof_train = np.zeros((num_train,))

oof_test = np.zeros((num_test,))

oof_test_all_fold = np.zeros((num_test, n_folds))

aucs = []

KF = KFold(n_splits = n_folds, random_state=2017)

fori, (train_index, val_index)inenumerate(KF.split(x_train)):

print(' fold, train , val '.format(i,

len(train_index),

len(val_index)))

x_tra, y_tra = x_train[train_index], y_train[train_index]

x_val, y_val = x_train[val_index], y_train[val_index]

model, auc = self.train(x_tra, y_tra, x_val, y_val)

aucs.append(auc)

oof_train[val_index] = self.predict(model, x_val)

oof_test_all_fold[:, i] = self.predict(model, x_test)

oof_test = np.mean(oof_test_all_fold, axis=1)

print('all aucs , average '.format(aucs, np.mean(aucs)))

returnoof_train, oof_test

上面最重要的就是进行 K-fold 训练的get_oof 方法,该方法最终返回训练集和测试集在基模型上的预测结果,也就是两个一维向量,长度分别是训练集和测试集的样本数。

下面以两个基模型为例进行 stacking,分别是 xgboost 和 lightgbm,这两个模型都只需要实现BasicModel中的train和predict方法

第一个基模型

第二个基模型

importlightgbmaslgb

classLGBClassifier(BasicModel):

def__init__(self):

self.num_boost_round =2000

self.early_stopping_rounds =15

self.params = {

'task':'train',

'boosting_type':'dart',

'objective':'binary',

'metric': {'auc','binary_logloss'},

'num_leaves':80,

'learning_rate':0.05,

# 'scale_pos_weight': 1.5,

'feature_fraction':0.5,

'bagging_fraction':1,

'bagging_freq':5,

'max_bin':300,

'is_unbalance':True,

'lambda_l2':5.0,

'verbose':-1

}

deftrain(self, x_train, y_train, x_val, y_val):

print('train with lgb model')

lgbtrain = lgb.Dataset(x_train, y_train)

lgbval = lgb.Dataset(x_val, y_val)

model = lgb.train(self.params,

lgbtrain,

valid_sets = lgbval,

verbose_eval = self.num_boost_round,

num_boost_round = self.num_boost_round)

early_stopping_rounds = self.early_stopping_rounds)

returnmodel, model.best_score['valid_0']['auc']

defpredict(self, model, x_test):

print('test with lgb model')

returnmodel.predict(x_test, num_iteration=model.best_iteration)

下一个步骤就是将这两个基模型的输出作为第二层模型的输入,这里选用的第二层模型是,

首先需要将各个基模型的输出和成合适的大小

lgb_classifier = LGBClassifier()

lgb_oof_train, lgb_oof_test = lgb_classifier.get_oof(x_train, y_train, x_test)

xgb_classifier = XGBClassifier()

xgb_oof_train, xgb_oof_test = xgb_classifier.get_oof(x_train, y_train, x_test)

input_train = [xgb_oof_train, lgb_oof_train]

input_test = [xgb_oof_test, lgb_oof_test]

stacked_train = np.concatenate([f.reshape(-1,1)forfininput_train], axis=1)

stacked_test = np.concatenate([f.reshape(-1,1)forfininput_test], axis=1)

然后用第二层模型进行训练和预测

上述实现的完整代码见下面的链接

https://github.com/WuLC/MachineLearningAlgorithm/blob/master/python/Stacking.py

如果错漏,欢迎交流指正

吴恩达机器学习系列笔记

欢迎关注公众号学习交流~

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180125B00M4P00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券