前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >基于RandomForestRegressor的波士顿房价回归预测

基于RandomForestRegressor的波士顿房价回归预测

作者头像
潇洒坤
发布2018-09-10 09:42:25
1.4K0
发布2018-09-10 09:42:25
举报
文章被收录于专栏:简书专栏简书专栏

2018年8月27日笔记

sklearn官方英文用户使用指南:https://sklearn.org/user_guide.html

sklearn翻译中文用户使用指南:http://sklearn.apachecn.org/cn/0.19.0/user_guide.html

RandonForestRegressor中文叫做随机森林回归模型。

本文使用的数据集是波士顿房价数据集,可以使用sklearn,datasets库中的load_boston方法直接获取数据。

0.打开jupyter notebook

不知道怎么打开jupyter notebook的朋友请查看我的入门指南文章:https://cloud.tencent.com/developer/article/1331843

1.准备数据

阅读此篇文章的基础是已经阅读了作者的上一篇文章《基于LinearRegression的波士顿房价预测》。

文章链接:https://cloud.tencent.com/developer/article/1331849

加载数据集中的预测目标值。

代码语言:javascript
复制
from sklearn.datasets import load_boston

y = load_boston().target

如果阅读过上一篇文章,读者应该知道特征提取后的数据处理主要是对数据进行分箱,从而产生新的字段。

将数据处理的过程封装成函数,代码如下:

代码语言:javascript
复制
def dataProcessing(df):
    field_cut = {
    'CRIM' : [0,10,20, 100],
    'ZN' : [-1, 5, 18, 20, 40, 80, 86, 100], 
    'INDUS' : [-1, 7, 15, 23, 40],
    'NOX' : [0, 0.51, 0.6, 0.7, 0.8, 1],
    'RM' : [0, 4, 5, 6, 7, 8, 9],
    'AGE' : [0, 60, 80, 100],
    'DIS' : [0, 2, 6, 14],
    'RAD' : [0, 5, 10, 25],
    'TAX' : [0, 200, 400, 500, 800],
    'PTRATIO' : [0, 14, 20, 23],
    'B' : [0, 100, 350, 450],
    'LSTAT' : [0, 5, 10, 20, 40]
    }
    df = df[load_boston().feature_names].copy()
    cut_df = pd.DataFrame()
    for field in field_cut.keys():
        cut_series = pd.cut(df[field], field_cut[field], right=True)
        onehot_df = pd.get_dummies(cut_series, prefix=field)
        cut_df = pd.concat([cut_df, onehot_df], axis=1)
    new_df = pd.concat([df, cut_df], axis=1)
    return new_df

调用函数dataProcessing形成新的特征矩阵,代码如下:

代码语言:javascript
复制
import pandas as pd

df = pd.DataFrame(load_boston().data, columns=load_boston().feature_names)
new_df = dataProcessing(df)
print(new_df.columns)
new_df.head()

上面一段代码的运行结果如下图所示:

提取特征后的特征矩阵.png

将特征处理后的特征矩阵赋值给变量X,代码如下:

代码语言:javascript
复制
X = new_df.values

2.清除异常值

波士顿房价预测是kaggle网站上2016年的比赛。

网上有资料显示有部分预测目标异常值为50,所以我们删除具有此异常值的样本。

代码如下:

代码语言:javascript
复制
X = new_df.values
y = load_boston().target
print(X.shape)
X = X[y!=50]
y = y[y!=50]
print(X.shape)

上面一段代码的运行结果如下图所示:

image.png

从上图中可以看出,特征矩阵X的行数由506变成了490。

3.随机森林回归模型

使用随机森林回归模型做回归预测,并使用交叉验证查看模型得分。

调用sklearn.ensemble库的RandonForestRegressor方法实例化模型对象。

调用sklearn.model_selection库的KFold方法实例化交叉验证对象。

调用sklearn.model_selection库的cross_val_score方法做交叉验证。

cross_val_score方法需要4个参数,第1个参数是模型对象,第2个参数是特征矩阵X,第3个参数是预测目标值y,第4个关键字参数cv可以为整数或者交叉验证对象,此处因为样本数只有506个,所以得指定交叉验证对象,而且实例化交叉验证对象的时候,必须设置关键字参数shuffle=True,如果不进行设置,会发生严重的错误,读者可以自己尝试一下。

从官方文档查看cross_val_score方法如何使用的链接:http://sklearn.apachecn.org/cn/0.19.0/modules/generated/sklearn.model_selection.cross_val_score.html#sklearn.model_selection.cross_val_score

随机森林回归模型的代码如下:

代码语言:javascript
复制
from sklearn.ensemble import RandomForestRegressor
from sklearn.model_selection import KFold
from sklearn.model_selection import cross_val_score

randomForest_model = RandomForestRegressor()
kf = KFold(n_splits=5, shuffle=True)
score_ndarray = cross_val_score(randomForest_model, X, y, cv=kf)
print(score_ndarray)
score_ndarray.mean()

上面一段代码的运行结果如下:

0.75418528 0.87356227 0.9142801 0.89722115 0.86022563 0.85989488606383779

4.结论

使用随机森林回归模型可以取得较好的回归效果,比使用单个决策树回归模型提升了6%的准确率,比xgboost模型低3%准确率。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018.08.28 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 0.打开jupyter notebook
  • 1.准备数据
  • 2.清除异常值
  • 3.随机森林回归模型
  • 4.结论
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档