xgboost之train方法

xgboost是个大杀器,我之前一直用的是sklearn接口,xgboost.sklearn.XGBModel,包括XGBRegressor和XGBClassifier,后来我仔细研究了一下xgb文档,发现还有原生的和试了几次以后,我喜欢上了用现在和大家分享一下。官方文档见https://xgboost.readthedocs.io/en/latest/python/python_api.html。顺便吐槽下,英语过不过六级不重要,看懂别人的说明书才重要。这次是个短篇,数据不放了,大家可以直接试一试。

============================分割线==========================

接下来是肉戏:

觉得这很酷啊。无论是xgb.cv还是网格搜索交叉验证,都是让你训练集牛逼,但是这个train方法,训练的是训练集,但是找到测试集最好的模型,是不是很帅!

模型告诉我们了,最好的迭代次数是4,这个时候训练集的ks是0.59,测试集的ks是0.259。然后我们用这个最好的模型计算测试集的预测概率值和预测标签

大家可以参考相关文档试试,也许你也会喜欢train方法

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20180108G08O3300?refer=cp_1026

同媒体快讯

相关快讯

扫码关注云+社区