【Python环境】scikit-learn的线性回归模型

内容概要

  • 如何使用pandas读入数据
  • 如何使用seaborn进行数据的可视化
  • scikit-learn的线性回归模型和使用方法
  • 线性回归模型的评估测度
  • 特征选择的方法

作为有监督学习,分类问题是预测类别结果,而回归问题是预测一个连续的结果。

1. 使用pandas来读取数据

Pandas是一个用于数据探索、数据处理、数据分析的Python库

In [1]:

import pandas as pd

In [2]:

# read csv file directly from a URL and save the resultsdata = pd.read_csv('http://www-bcf.usc.edu/~gareth/ISL/Advertising.csv', index_col=0)# display the first 5 rowsdata.head()

Out[2]:

TV

Radio

Newspaper

Sales

1

230.1

37.8

69.2

22.1

2

44.5

39.3

45.1

10.4

3

17.2

45.9

69.3

9.3

4

151.5

41.3

58.5

18.5

5

180.8

10.8

58.4

12.9

上面显示的结果类似一个电子表格,这个结构称为Pandas的数据帧(data frame)。

pandas的两个主要数据结构:Series和DataFrame:

  • Series类似于一维数组,它有一组数据以及一组与之相关的数据标签(即索引)组成。
  • DataFrame是一个表格型的数据结构,它含有一组有序的列,每列可以是不同的值类型。DataFrame既有行索引也有列索引,它可以被看做由Series组成的字典。

In [3]:

# display the last 5 rowsdata.tail()

Out[3]:

TV

Radio

Newspaper

Sales

196

38.2

3.7

13.8

7.6

197

94.2

4.9

8.1

9.7

198

177.0

9.3

6.4

12.8

199

283.6

42.0

66.2

25.5

200

232.1

8.6

8.7

13.4

In [4]:

# check the shape of the DataFrame(rows, colums)data.shape

Out[4]:

(200, 4)

特征:

  • TV:对于一个给定市场中单一产品,用于电视上的广告费用(以千为单位)
  • Radio:在广播媒体上投资的广告费用
  • Newspaper:用于报纸媒体的广告费用

响应:

  • Sales:对应产品的销量

在这个案例中,我们通过不同的广告投入,预测产品销量。因为响应变量是一个连续的值,所以这个问题是一个回归问题。数据集一共有200个观测值,每一组观测对应一个市场的情况。

In [5]:

import seaborn as sns%matplotlib inline

In [6]:

# visualize the relationship between the features and the response using scatterplotssns.pairplot(data, x_vars=['TV','Radio','Newspaper'], y_vars='Sales', size=7, aspect=0.8)

Out[6]:

<seaborn.axisgrid.PairGrid at 0x82dd890>

seaborn的pairplot函数绘制X的每一维度和对应Y的散点图。通过设置size和aspect参数来调节显示的大小和比例。可以从图中看出,TV特征和销量是有比较强的线性关系的,而Radio和Sales线性关系弱一些,Newspaper和Sales线性关系更弱。通过加入一个参数kind=’reg’,seaborn可以添加一条最佳拟合直线和95%的置信带。

In [7]:

sns.pairplot(data, x_vars=['TV','Radio','Newspaper'], y_vars='Sales', size=7, aspect=0.8, kind='reg')

Out[7]:

<seaborn.axisgrid.PairGrid at 0x83b76f0>

2. 线性回归模型

优点:快速;没有调节参数;可轻易解释;可理解

缺点:相比其他复杂一些的模型,其预测准确率不是太高,因为它假设特征和响应之间存在确定的线性关系,这种假设对于非线性的关系,线性回归模型显然不能很好的对这种数据建模。

线性模型表达式: y=β0+β1x1+β2x2+...+βnxn 其中

  • y是响应
  • β0是截距
  • β1是x1的系数,以此类推

在这个案例中: y=β0+β1∗TV+β2∗Radio+...+βn∗Newspaper

(1)使用pandas来构建X和y

  • scikit-learn要求X是一个特征矩阵,y是一个NumPy向量
  • pandas构建在NumPy之上
  • 因此,X可以是pandas的DataFrame,y可以是pandas的Series,scikit-learn可以理解这种结构

In [8]:

# create a python list of feature namesfeature_cols = ['TV', 'Radio', 'Newspaper']# use the list to select a subset of the original DataFrameX = data[feature_cols]# equivalent command to do this in one lineX = data[['TV', 'Radio', 'Newspaper']]# print the first 5 rowsX.head()

Out[8]:

TV

Radio

Newspaper

1

230.1

37.8

69.2

2

44.5

39.3

45.1

3

17.2

45.9

69.3

4

151.5

41.3

58.5

5

180.8

10.8

58.4

In [9]:

# check the type and shape of Xprint type(X)print X.shape
<class 'pandas.core.frame.DataFrame'>
(200, 3)

In [10]:

# select a Series from the DataFramey = data['Sales']# equivalent command that works if there are no spaces in the column namey = data.Sales# print the first 5 valuesy.head()

Out[10]:

1    22.1
2    10.4
3     9.3
4    18.5
5    12.9
Name: Sales, dtype: float64

In [11]:

print type(y)print y.shape
<class 'pandas.core.series.Series'>
(200,)

(2)构造训练集和测试集

In [12]:

from sklearn.cross_validation import train_test_splitX_train, X_test, y_train, y_test = train_test_split(X, y, random_state=1)

In [14]:

# default split is 75% for training and 25% for testingprint X_train.shapeprint y_train.shapeprint X_test.shapeprint y_test.shape
(150, 3)
(150,)
(50, 3)
(50,)

(3)Scikit-learn的线性回归

In [15]:

from sklearn.linear_model import LinearRegressionlinreg = LinearRegression()linreg.fit(X_train, y_train)

Out[15]:

LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False)

In [16]:

print linreg.intercept_print linreg.coef_
2.87696662232
[ 0.04656457  0.17915812  0.00345046]

In [17]:

# pair the feature names with the coefficientszip(feature_cols, linreg.coef_)

Out[17]:

[('TV', 0.046564567874150253),
 ('Radio', 0.17915812245088836),
 ('Newspaper', 0.0034504647111804482)]

y=2.88+0.0466∗TV+0.179∗Radio+0.00345∗Newspaper

如何解释各个特征对应的系数的意义?

  • 对于给定了Radio和Newspaper的广告投入,如果在TV广告上每多投入1个单位,对应销量将增加0.0466个单位
  • 更明确一点,加入其它两个媒体投入固定,在TV广告上没增加1000美元(因为单位是1000美元),销量将增加46.6(因为单位是1000)

(4)预测

In [18]:

y_pred = linreg.predict(X_test)

3. 回归问题的评价测度

对于分类问题,评价测度是准确率,但这种方法不适用于回归问题。我们使用针对连续数值的评价测度(evaluation metrics)。

下面介绍三种常用的针对回归问题的评价测度

In [21]:

# define true and predicted response valuestrue = [100, 50, 30, 20]pred = [90, 50, 50, 30]

(1)平均绝对误差(Mean Absolute Error, MAE)

1n∑ni=1|yi−yi^|

(2)均方误差(Mean Squared Error, MSE)

1n∑ni=1(yi−yi^)2

(3)均方根误差(Root Mean Squared Error, RMSE)

1n∑ni=1(yi−yi^)2−−−−−−−−−−−−−√

In [24]:

from sklearn import metricsimport numpy as np# calculate MAE by handprint "MAE by hand:",(10 + 0 + 20 + 10)/4.# calculate MAE using scikit-learnprint "MAE:",metrics.mean_absolute_error(true, pred)# calculate MSE by handprint "MSE by hand:",(10**2 + 0**2 + 20**2 + 10**2)/4.# calculate MSE using scikit-learnprint "MSE:",metrics.mean_squared_error(true, pred)# calculate RMSE by handprint "RMSE by hand:",np.sqrt((10**2 + 0**2 + 20**2 + 10**2)/4.)# calculate RMSE using scikit-learnprint "RMSE:",np.sqrt(metrics.mean_squared_error(true, pred))
MAE by hand: 10.0
MAE: 10.0
MSE by hand: 150.0
MSE: 150.0
RMSE by hand: 12.2474487139
RMSE: 12.2474487139

计算Sales预测的RMSE

In [26]:

print np.sqrt(metrics.mean_squared_error(y_test, y_pred))
1.40465142303

4. 特征选择

在之前展示的数据中,我们看到Newspaper和销量之间的线性关系比较弱,现在我们移除这个特征,看看线性回归预测的结果的RMSE如何?

In [27]:

feature_cols = ['TV', 'Radio']X = data[feature_cols]y = data.SalesX_train, X_test, y_train, y_test = train_test_split(X, y, random_state=1)linreg.fit(X_train, y_train)y_pred = linreg.predict(X_test)print np.sqrt(metrics.mean_squared_error(y_test, y_pred))
1.38790346994

我们将Newspaper这个特征移除之后,得到RMSE变小了,说明Newspaper特征不适合作为预测销量的特征,于是,我们得到了新的模型。我们还可以通过不同的特征组合得到新的模型,看看最终的误差是如何的。

原文发布于微信公众号 - 数据科学与人工智能(DS_AI_shujuren)

原文发表时间:2015-11-15

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏智能算法

10 种机器学习算法的要点(附 Python 和 R 代码)

本文由 伯乐在线 - Agatha 翻译,唐尤华 校稿。 英文出处:SUNIL RAY。欢迎加入翻译组。 前言 谷歌董事长施密特曾说过:虽然谷歌的无人驾驶汽车和...

46550
来自专栏计算机视觉战队

结合人类视觉注意力进行图像分类

注:昨天推送发现内容有一个严重错误,所以临时删除了文章的链接,希望关注的您能够谅解,我们也是希望推送最完整最准确的内容,谢谢您的支持与关注,谢谢! 好久没有和大...

89460
来自专栏IT派

Python 机器学习:多元线性回归

当y值的影响因素不唯一时,采用多元线性回归模型。例如商品的销售额可能不电视广告投入,收音机广告投入,报纸广告投入有关系,可以有 sales =β0+β1*TV+...

27340
来自专栏数据派THU

教你用机器学习匹配导师 !(附代码)

作者:Zipporah Polinsky-Nagel, Gregory Brucchieri, Marissa Joy, William Kye, Nan Li...

12720
来自专栏决胜机器学习

机器学习(五) ——k-近邻算法进一步探究

机器学习(五)——k-近邻算法进一步探究 (原创内容,转载请注明来源,谢谢) 一、概述 现采用k-近邻算法,进行分类应用。数据源采用《机器学习实战》提供的数...

34340
来自专栏深度学习自然语言处理

【论文笔记】中文词向量论文综述(一)

最近在做中文词向量相关工作,其中看了一些中文词向量的相关论文,在这篇文章,将把近几年的中文词向量进展及其模型结构加以简述,大概要写3-4篇综述,每篇包含2-3篇...

12920
来自专栏人工智能

机器学习(五)——k-近邻算法进一步探究

机器学习(五) ——k-近邻算法进一步探究 (原创内容,转载请注明来源,谢谢) 一、概述 现采用k-近邻算法,进行分类应用。数据源采用《机器学习实战》提供的数据...

206100
来自专栏磐创AI技术团队的专栏

使用scikit-learn解决文本多分类问题(附python演练)

在我们的商业世界中,存在着许多需要对文本进行分类的情况。例如,新闻报道通常按主题进行组织; 内容或产品通常需要按类别打上标签; 根据用户在线上谈论产品或品牌时的...

31430
来自专栏IT派

六行代码!完成你的第一个机器学习算法

Google出了一个面向新手的机器学习教程,每集六七分钟,言简意赅,只掌握最基础的Python语法知识,便可以实现一些基本的机器学习算法。接下来我准备分几次...

39760
来自专栏Pytorch实践

简单的搜索引擎搭建

24870

扫码关注云+社区

领取腾讯云代金券