开启机器学习的第一课:用Pandas进行数据分析

翻译 | AI科技大本营

参与 | 林椿眄

本课程的目的并不是要开发一门全新的机器学习或数据分析的综合入门课程,也不是想借此来取代基础教育、在线/离线课程或一些专业和书籍。我们推出本系列文章是为了让初学者快速地回顾一些基础知识,并帮助你找到进一步学习的方向。

首先用简短通俗的语言回顾数学和机器学习的基础知识,并引用了一些其他资源,这种教学的方法与一些深度学习书籍类似。

此外,课程不单单注重理论的讲解,更强调完美地平衡理论与实践。因此,每个理论主题讲解后都有一个对应的练习专题,方便初学者通过自己动手来巩固所学的知识。此外,你还可以在参加学习课程期间,参加Kaggle举办的一些Inclass比赛。

我们的课程将会在OpenDataScience Slack社区提供一个讨论专栏。你需要填写此表格,通过我们的审核并得到邀请。

课程大纲如下:

1. 关于本课程

2. 课程作业

3. Pandas的一些主要方法演示

4. 用Pandas尝试预测电信客户流失率

5. 课程作业#1

6. 有用的一些资源

▌1. 关于课程

教学大纲

1. 用Pandas进行数据分析

2. 用Python进行数据的可视化

3. 分类,决策树和k最近邻算法

4. 线性分类和回归算法

5. Bagging算法和随机森林

6. 特征工程和特征选择

7. 无监督学习:主成分分析和聚类分析

8. Vowpal Wabbit:学习千兆字节的数据

9. 用Python进行时间序列分析

10. 梯度提升(gradient boosting)

社区

参加课程后,你将被邀请加入OpenDataScience Slack社区,有专业的老师在线指导,为你解答课程及作业上的问题。 你可以通过填写此表格来获得进入社区的资格,我们主要想了解每个人的一些关于数学背景和技能的问题。

预备知识

你需要具备的一些基础知识包括:微积分,线性代数,概率论和统计学的基础概念,以及Python编程技巧。

此外,“深度学习”一书中的第一部分知识也是不错的选择。你还可以在线学习各种相关的数学和Python在线课程(对于Python CodeAcademy来说)。Wiki上也能为你提供更多的帮助。

软件配置

你只需要安装Anaconda(针对Python 3.6)就能重现课程中的代码。在本课程的后续学习中,你还将需要安装其他类似Xgboost和Vowpal Wabbit这些依赖库。

你也可以使用Docker容器,它能帮助你自动安装所需的其他软件。有关更多信息可在相应的Wiki页面上找到。

▌2. 作业

  • 每篇作业都以Jupyter notebook的形式出现。作业任务就是填写缺少的代码片段,并在Google测验表单中回答相应的问题;
  • 每个作业任务都要在一个星期内完成的。
  • 请在OpenDataScience Slack社区中的#eng_mlcourse_open频道讨论课程相关的内容,包括课程文章及相应的作业,也可以在评论区进行讨论。
  • 作业的答案将以相应的Google的形式提交并最终发送。

▌3. Pandas主要方法演示

Pandas和数据可视化分析有许多很棒的教程。如果你想了解相应的主题,那么可以等待本系列的第3篇文章,我们将详细介绍机器学习的知识。

你可以用jupyter notebook来阅读下面的材料,你也可以使用Jupyter在本地复现文章中的代码。

Pandas是一个Python库,提供了丰富的数据分析方法。数据科学家经常使用Pandas来分析处理.csv,.tsv或.xlsx等表格数据。因此,诸如SQL数据库数据,使用Pandas来加载、处理并分析这样的表格数据将变得非常方便。此外,结合Matplotlib和Seaborn,Pandas提供了强大的数据可视化分析功能。

Pandas中的主要数据结构包括Series和DataFrame类。前者是针对一些特定数据类型的一种一维索引数组格式。后者是对相同类型的表格数据的一种二维数据结构,可以看作Series instances的字典形式。DataFrame类是非常贴近实际数据形式的一种数据结构:它的行对应于实例(对象,观察等),它的列对应于每个实例的特征。

我们将通过分析一个关于电信运营商客户流失率的数据集来演示Pandas数据分析的主要方法。首先,我们使用read_csv读取数据,并通过head方法来查看前5行:

import pandas as pd
 import numpy as np
 
df = pd.read_csv('../../data/telecom_churn.csv')
 df.head()

其中,每行对应于一个研究的对象,列是对象所对应的特征。

下面,我们来看看数据维度,要素名称和要素类型。

print(df.shape)
(3333, 20)

从输出中我们可以看到,该表格数据包含3333行和20列。

现在我们尝试使用columns打印出列名称:

print(df.columns)
Index(['State', 'Account length', 'Area code', 'International plan',
       'Voice mail plan', 'Number vmail messages', 'Total day minutes',
       'Total day calls', 'Total day charge', 'Total eve minutes',
       'Total eve calls', 'Total eve charge', 'Total night minutes',
       'Total night calls', 'Total night charge', 'Total intl minutes',
       'Total intl calls', 'Total intl charge', 'Customer service calls',
       'Churn'],
      dtype='object')

我们还可以使用info()方法来查看dataframe数据结构的一些通用信息:

print(df.info())
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 3333 entries, 0 to 3332
Data columns (total 20 columns):
State                     3333 non-null object
Account length            3333 non-null int64
Area code                 3333 non-null int64
International plan        3333 non-null object
Voice mail plan           3333 non-null object
Number vmail messages     3333 non-null int64
Total day minutes         3333 non-null float64
Total day calls           3333 non-null int64
Total day charge          3333 non-null float64
Total eve minutes         3333 non-null float64
Total eve calls           3333 non-null int64
Total eve charge          3333 non-null float64
Total night minutes       3333 non-null float64
Total night calls         3333 non-null int64
Total night charge        3333 non-null float64
Total intl minutes        3333 non-null float64
Total intl calls          3333 non-null int64
Total intl charge         3333 non-null float64
Customer service calls    3333 non-null int64
Churn                     3333 non-null bool
dtypes: bool(1), float64(8), int64(8), object(3)
memory usage: 498.1+ KB
None

其中bool,int64,float64和object是我们数据的类型特征。我们可以看到bool型(布尔)特征有1个,objec型特征有3个,数字类型特征(包括int64和float64)共有16个。同样地,我们还可以很容易地查看数据中是否存在缺失值。由于每列包含3333个观测值,这与我们之前得到的数据的维度是一样的,因此这里不存在缺失数据。

我们还可以用astype()方法来改变数据的列类型。应用这种方法,我们可以将churn的数据特征转化为int64类型:

df['Churn'] = df['Churn'].astype('int64')

describe()方法用来描述每个数字特征(int64和float64类型)的基本统计信息:包括非缺失值的数量,均值,标准差,范围,中位数,0.25和0.75四分位数。

此外,要查看数据的非数字特征的统计信息,还必须在include参数中明确指出感兴趣的数据类型。

df.describe(include= ['object','bool'])

对于分类(object型)特征和布尔(bool型)特征,我们可以使用value_counts()方法来查看。下面我们查看下客户流失率Churn的分布情况:

df[‘Churn’].value_counts()
0    2850
1     483
Name: Churn, dtype: int64

可以看到,3333位用户中有2850位有忠诚用户,其对应的Churn为0。如果要计算相应用户所占的比例,可以将value_counts函数中的normalize参数设置为True即可:

df[‘Churn’'].value_counts(normalize=True)
0    0.855086
1    0.144914
Name: Churn, dtype: float64

Sorting

DataFrame数据结构可以对一个特定变量的值(如列)进行排序。例如,我们可以按日总费用排序(设置参数ascending= False,按降序排序):

df.sort_values(by='Total day charge', ascending=False).head()

此外,我们还可以对多列进行排序:

df.sort_values(by=['Churn', 'Total day charge'], ascending=[True, False]).head()

Indexing、Retrieving data

DataFrame数据结构可以通过不同的方式对数据进行索引。

你可以使用DataFrame ['Name']的结构来获得单个列,我们可以通过这个方法获得数据中用户流失率Churn所占的比例。

df[‘Churn’].mean()
0.14491449144914492

我们可以看出,客户流失率Churn达到14.5%,这对一家公司来说确实是非常糟糕的结果,因为高流失率会使公司破产。

用Bool值对列数据进行索引也是非常简便的,具体的实现为df [P(df

['Name'])],其中P表示对Name这个列的每个元素进行检查所需某个逻辑条件。这种索引结果是获取DataFrame数据中对应列只满足P条件的行。

同样地,我们用这个方法可以获得以下问题的答案:

获得流失用户数值变量的平均值?

df[df ['Churn'] == 1] .mean()
Account length            102.664596
Area code                 437.817805
Number vmail messages       5.115942
Total day minutes         206.914079
Total day calls           101.335404
Total day charge           35.175921
Total eve minutes         212.410145
Total eve calls           100.561077
Total eve charge           18.054969
Total night minutes       205.231677
Total night calls         100.399586
Total night charge          9.235528
Total intl minutes         10.700000
Total intl calls            4.163561
Total intl charge           2.889545
Customer service calls      2.229814
Churn                       1.000000
dtype: float64

用户白天在电话上花费的时间(平均)是多少?

df[df ['Churn'] == 1] [‘Total day minutes']. mean()
206.91407867494814

忠实用户(Churn == 0)中没有国际计划的国际长途电话的最大长度是多少?

df[(df ['Churn'] == 0) & (df ['International plan'] =='No')] ['Total intlminutes']. max()
18.899999999999999

DataFrame数据结构不仅可以按列名(标签)或行名(索引)进行索引,还可以通过序列号或行进行索引。

其中,loc()方法是用于按名称进行索引,我们假定“索引从0到5(包含索引值)的行以及从State到Area code标记(包含索引值)的列的值”,代码如下:

df.loc[0:5, 'State':'Area code']

而iloc ()方法可以用于按数字进行索引。我们会假定“索引得到前三列中前五行的值,这种索引方式和Python切片方式是一样的,不会包含索引的最大值对应的项,代码如下:

df.iloc[0:5, 0:3]

如果想索引DataFrame数据中的第一行和最后一行,我们可以使用df [:1]或df [-1:]的形式。

将函数应用于数据中的单元格,列和行

使用apply()方法,将相应的函数应用于数据中的每列:

df.apply(np.max)
State                        WY
Account length              243
Area code                   510
International plan          Yes
Voice mail plan             Yes
Number vmail messages        51
Total day minutes         350.8
Total day calls             165
Total day charge          59.64
Total eve minutes         363.7
Total eve calls             170
Total eve charge          30.91
Total night minutes         395
Total night calls           175
Total night charge        17.77
Total intl minutes           20
Total intl calls             20
Total intl charge           5.4
Customer service calls        9
Churn                         1
dtype: object

置参数axis=1,apply()方法也可以将函数应用到数据的每一行。在这种情况下,还可以结合Lambda函数一起使用将实现更强大的搜索功能。例如,如果我们需要选择以W开头的State项,我们可以这样做:

df[df ['State']. apply (lambda state: state [0] == 'W')]. head()

以{old_value:new_value}的字典形式作为参数,map ()方法可以实现替换数据每列中的值:

d= {'No' : False, 'Yes' : True}
df['International plan'] = df ['International plan']. map(d)
df.head()

同样地,replace()方法也能实现同样地效果:

df= df. replace({'Voice mail plan': d})
df.head()

Grouping

Pandas中,对数据进行分组显示操作一般可以这样做:

df.groupby(by=grouping_columns)[columns_to_show]. function()

1. 首先,groupby()方法将以grouping_columns的值来划分数据,得到的结果将作为DataFrame新的索引。

2. 然后,选择感兴趣的列columns_to_show。如果不包含columns_to_show列的话,则将包含所有非groupby的子句。

3. 最后,将一个或多个函数应用于每个选定列来获取我们想要分组的结果。

我们根据流失率Churn的值对数据进行分组,并显示每个组中的三列的统计信息:

columns_to_show= ['Total day minutes', 'Total eve minutes', 'Total night minutes']
df.groupby(['Churn'])[columns_to_show].describe(percentiles=[])

同样地,我们可以用一个列表形式,将参数传递给agg()方法来实现同样的效果:

columns_to_show= ['Total day minutes', 'Total eve minutes', 'Total night minutes']
df.groupby(['Churn'])[columns_to_show].agg([np.mean,np.std, np.min, np.max])

Summarytables

如果想查看数据样本中Churn和International plan两个变量是如何分布的,我们可以使用crosstab()方法来构建一个简单的表格查看我们想要的内容:

pd.crosstab(df['Churn'], df['International plan'])
pd.crosstab(df['Churn'], df['Voice mail plan'], normalize=True)

我们可以看到,忠实用户中的大多数人并没有使用额外的服务,如International plan或Vioce mail等。

这种表格形式有点类似于Excel的数据透视表。当然,Pandas中同样能实现数据透视表。你可以应用pivot_table()方法,设置如下参数来对你的数据进行进一步的分析:

  • value:用于数据透视的变量列表
  • index:用于数据分组的变量列表
  • aggfunc:用于数据透视的指标,如按数据的总和,平均数,最大值,最小值或其他值等进行数据透视分析

我们来看看area code平均每天白天和晚上的电话呼叫情况:

df.pivot_table(['Total day calls', 'Total eve calls', 'Total night calls'], ['Area code'], aggfunc='mean')

DataFrame数据转换

正如Pandas中许多方法一样,我们可以通过多种方式为DataFrame的列添加数据。

例如,如果想要计算所有用户的总呼叫次数,那么我们可以创建total_calls 的Series数据形式并将其粘贴到DataFrame中:

total_calls = df['Total day calls'] + df['Total eve calls'] + \ 
df['Total night calls'] + df['Total intl calls'] 
df.insert(loc=len(df.columns), column='Total calls', value=total_calls) 
df.head()

我们还可以在不创建Series实例形式的情况下,为每列添加数据:

df['Totalcharge'] = df['Total day charge'] + df['Total eve charge'] + \ df['Total nightcharge']+
df['Total intlcharge']
df.head()

如果想要删除数据的某列或某行的话,我们可以使用drop()方法,并制定方法中必需的index和axis参数。如果要删除列,则设置参数axis=1;反之,删除行的话则axis=0。此外,inplace参数将决定是否更改原始的DataFrame数据:使用inplace = False时,drop方法不会更改现有DataFrame数据结构,并返回删除行或列后的新数据框。当inplace = True时,DataFrame的数据结构也将随之改变。

# get rid of just created columns 
df.drop(['Total charge', 'Total calls'], axis=1, inplace=True) 
# and here’s how you can delete rows 
df.drop([1, 2]).head()

▌4. 实战项目:预测电信客户的流失率

首先,我们查看电信客户流失率churn与International plan变量之间的相关性。我们将使用crosstab()方法以及Seaborn进行可视化分析(下一篇文章将更详细地介绍可视化分析)。

# some imports and "magic" commands to set up plotting 
%matplotlib inline import matplotlib.pyplot as plt 
# pip install seaborn 
import seaborn as sns
plt.rcParams['figure.figsize'] = (8, 6)
sns.countplot(x='International plan', hue='Churn', data=df);

我们看到,带International plan的客户流失率churn更高。这个结果产生的原因可能是国际长途电话费用的大幅度控制和管理不善所引起的,并导致电信客户的不满。

接下来,我们将查看另一个重要指标--客服电话的呼叫次数。同样地,我们还是通过crosstab来可视化地分析:

pd.crosstab(df['Churn'],df['Customer service calls'], margins=True)
sns.countplot(x='Customerservice calls', hue='Churn', data=df)

在表中我们无法清楚地看到二者之间的关系,但从图中我们可以发现,客服呼叫次数达到4次时会导致客户流失率churn大幅地增加。

现在我们为DataFrame数据添加一个二元属性,令customer service calls > 3,来再次查看它与流失率churn之间的关系。

df['Many_service_calls']= (df['Customer service calls'] > 3).astype('int')
pd.crosstab(df['Many_service_calls'],df['Churn'], margins=True)
sns.countplot(x='Many_service_calls',hue='Churn', data=df)

下面,我们构建另一个表格,来查看Churn与International plan和新创建的Many_service_calls之间的相关性。

pd.crosstab(df['Many_service_calls']& df['International plan'] , df['Churn'])

因此,我们可以看到当客服的呼叫数量少于4并且添加了International plan时,可以预测该客户是电信的忠诚用户,即Churn = 0。预测结果的可能期望值为85.8%,即我们预测错误的次数只有464 + 9次。我们通过非常简单的推理来得到这样一个好的结果(85.8%),这将作为下一步机器学习模型构建的基础。

在机器学习出现之前,数据分析看起来是多么复杂和繁琐的工作。而在我们的课程中,通过机器学习的方法我们可以对数据进行非常简单有效的分析,下面让我们回顾一下以上课程所涵盖的内容:

  • 样本中忠诚客户所占的比例为85.5%,换句话说,我们所构建的最简单的模型总是预测“忠实客户”在所有样本中所占比例约为85.5%。更进一步地说,后续模型所预测的准确性结果应该不低于这个数字,我们希望改善后的模型所得到的结果将会更高;
  • 这样一个简单模型的预测结果,可以用下面的公式表示:“International plan=True& Customer Service calls > 3 => Churn = 1, else Churn = 0”,我们得到的85.8%准确性刚刚超过85.5%水平。随后,我们将进一步讨论决策树,并找出如何仅仅基于输入数据来自动找到数据之间的相关性;
  • 没有应用机器学习方法,我们就已经可以得到这两个基准,这将成为我们构建后续模型的起点。如果后续的模型只能将预测结果小幅地提高(如只提高0.5%),那么我们还是选择用这种最简单的方式来构建我们的预测模型。
  • 在训练复杂模型之前,我们建议对数据进行适当的预处理,可视化地生成一些图来查看数据的结构并逐步验证我们的假设。此外,在实际应用中,我们通常都是尝试从最简单的机器学习模型开始的,然后进一步构建更复杂的解决方案。

▌5. 作业#1

在这次作业中,你将分析美国居民的UCI成人数据集,统计人口的信息。我们建议在完成Jupyter notebook中的任务,再回答Google表单中的10个问题。此外,在提交表单后,你也可以修改你的答案。任务的截止日期:2月11日23:59 CET

▌6. 有用的资源

  • 首先,也是最重要的资源,当然是Pandas的官方文档
  • 10分钟掌握Pandas
  • Pandas的cheatsheet (PDF版)
  • GitHub repos:“Pandas练习”和“有效使用Pandas”
  • scipy-lectures.org中关于pandas,numpy,matplotlib和scikit-learn的使用教程

作者信息:Yury Kashnitsky,Mail.Ru Group的数据科学家;Ekaterina Demidova,Segmento的数据科学家。文章的翻译和编辑包括:Yuanyuan Pao,Christina Butsko, Anastasia Manokhina, Sergey Isaev, and Artem Trunov.

原文链接:

https://medium.com/open-machine-learning-course/open-machine-learning-course-topic-1-exploratory-data-analysis-with-pandas-de57880f1a68

原文发布于微信公众号 - AI科技大本营(rgznai100)

原文发表时间:2018-02-24

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器之心

业界 | 微软提出基于程序图简化程序分析,直接从源代码中学习

18630
来自专栏数据派THU

自然语言处理如何检查拼写错误?(Tensorflow实例教程、源代码)

原文:Towards Data Science 作者:Dave Currie 来源:机器人圈 本文长度为2400字,建议阅读5分钟 本文教你用TensorFlo...

1.2K80
来自专栏数据科学与人工智能

【知识】使用Python来学习数据科学的完整教程

编者按:Python学习和实践数据科学,Python和Python库能够方便地完成数据获取,数据探索,数据处理,数据建模和模型应用与部署的工作,对于数据科学工作...

57470
来自专栏PaddlePaddle

【AI核心技术】课程十九:神经图灵机—寻址

UAI与PaddlePaddle联合推出的【AI核心技术掌握】系列课程持续更新中!

9710
来自专栏算法+

基于傅里叶变换的音频重采样算法 (附完整c代码)

如果特定情况下需要,我也可以上matlab,python,delphi,c#,c++等等。

37530
来自专栏专知

【AlphaGo Zero 核心技术-深度强化学习教程代码实战02】理解gym的建模思想

点击上方“专知”关注获取更多AI知识! 【导读】Google DeepMind在Nature上发表最新论文,介绍了迄今最强最新的版本AlphaGo Zero,不...

36850
来自专栏算法+

浮点数据有损压缩算法 附完整C代码

思路比较简单,就是做一个2D颜色映射表进行插值实现,一般是512*512*3 的颜色表,

61640
来自专栏落影的专栏

音视频知识小结

前言 总结的一些音视频相关的知识,文末总结有传送门。 概念 协议层(Protocol Layer):该层处理的数据为符合特定流媒体协议规范的数据,例如ht...

49560
来自专栏iOSDevLog

Scikit-Learn教程:棒球分析 (一)

一个scikit-learn教程,通过将数据建模到KMeans聚类模型和线性回归模型来预测MLB每赛季的胜利。

25320
来自专栏CSDN技术头条

饿了么推荐系统:从0到1

随着移动互联网的发展,用户使用习惯日趋碎片化,如何让用户在有限的访问时间里找到想要的产品,成为了搜索/推荐系统演进的重要职责。作为外卖领域的独角兽, 饿了么拥有...

35460

扫码关注云+社区

领取腾讯云代金券