缺失值处理是一个数据分析工作者永远避不开的话题,如何认识与理解缺失值,运用合适的方式处理缺失值,对模型的结果有很大的影响。本期Python数据分析实战学习中,我们将详细讨论数据缺失值分析与处理等相关的一系列问题。
作为数据清洗的一个重要环节,一般从缺失值分析和缺失值处理两个角度展开:
Part 1
缺失值分析
数据的缺失主要包括记录的缺失和记录中某个字段信息的缺失,两者都会造成分析结果的不准确,以下从缺失值类型、产生的原因及影响等方面展开分析。
1、随机丢失(MAR,Missing at Random)
指数据丢失的概率与丢失的数据本身无关,而仅与部分已观测到的数据有关。
2、完全随机丢失(MCAR,Missing Completely at Random)
数据的缺失是完全随机的,不依赖于任何不完全变量或完全变量,不影响样本的无偏性。
3、非随机丢失(MNAR,Missing not at Random)
数据的缺失与不完全变量自身的取值有关。
正确的理解和判断缺失值的类型,对工作中对缺失值分析和处理带来很大对便利,但因没有一套成熟但缺失值类型判断方法,大多考经验处理,这里不作过多阐述。
1、信息暂时无法获取、获取信息代价太大;
2、信息因人为因素没有被记录、遗漏或丢失;
3、部分对象或某些属性不可用或不存在;
4、信息采集设备故障、存储介质、传输媒体或其他物理原因造成的数据丢失。
1、使系统丢失大量的有用信息;
2、使系统中所表现出的不确定性更加显著,系统中蕴涵的确定性成分更难把握;
3、包含空值的数据会使数据挖掘过程陷入混乱,导致不可靠的输出。
数据缺失值分析属于数据探索分析(Exploratory Data Analysis,EDA)的里重要的一步,其工具通常是统计分析和数据可视化。统计分析为我们提供了假设不正确的理论概率,即显着性水平,而数据可视化工具给我们带来了有关数据分布的印象,有助于从概念上验证他们的假设。
一般情况下,拿到一份数据,我们将使用data.info(); data.describe()
来查看数据的基本情况。
代码:
>>> data.info()
输出结果:
结果图中绿色框是数据总索引数,蓝色框为每个变量的总记录数,它们的差值为每个变量的缺失值总数。
代码:
>>> data.describe()
输出结果:
结果图中count为每个变量的非空计数,其与总索引数的差值,即为缺失值总数。
以上方法在查看数据的总体概况下表现较佳,但用于数据缺失值分析显得力不从心。下面介绍几个更加便于缺失值分析的方法。
代码:
>>> import pandas as pd
>>> missing=data.isnull().sum().reset_index().rename(columns={0:'missNum'})
>>> missing.head(10)
输出结果:
为方便展示,本例中只显示前10个特征。从上面数据描述查看信息data.info()可以看出,本数据总计为689945条,从missNum中可以清洗看出每条特征变量的缺失情况:索引0-4为无缺失特征,索引8为缺失最少,而索引6则缺失超60万条。
代码:
>>> missing['missRate']=missing['missNum']/data.shape[0]
>>> missing.head(10)
data.shape[0] 得到数据记录总数。 missing.head(10) 只显示前10条记录。
输出结果:
只看缺失数量并不是很直观,可以用缺失数量missNum
比数据总量data.shape[0]
得到缺失比值missRate
,这样更加直观地看出缺失值相对数量,便于后续选择合适的缺失值处理。
代码:
>>> miss_analy=missing[missing.missRate>0].sort_values(by='missRate', ascending=False)
>>> miss_analy.head(10)
miss_analy 存储的是每个变量缺失情况的数据框。
输出结果:
将所有特征按照缺失比例降序排列,更加有序地看出缺失值情况,便于后面对拥有不同缺失比例的特征采用不同的处理策略。
matplotlib库--条形图
利用常规matplotlib.pyplot
库可视化出每个变量的缺失值比例,以及总体排名情况,一目了然。
代码:
>>> import matplotlib.pyplot as plt
>>> import pylab as pl
>>> colors = ['DeepSkyBlue' ,'DeepPink', 'Yellow', 'LawnGreen' ,'Aqua', 'DarkSlateGray']
>>> fig = plt.figure(figsize=(20,6))
>>> plt.bar(np.arange(miss_analy.shape[0]), list(miss_analy.missRate.values), align = 'center',color=colors)
>>> font = {'family' : 'Times New Roman','weight' : 'normal','size' : 23,}
>>> plt.title('Histogram of missing value of variables',fontsize=20)
>>> plt.xlabel('variables names',font)
>>> plt.ylabel('missing rate',font)
# 添加x轴标签,并旋转90度
>>> plt.xticks(np.arange(miss_analy.shape[0]),list(miss_analy['index']))
>>> pl.xticks(rotation=90)
# 添加数值显示
>>> for x,y in enumerate(list(miss_analy.missRate.values)):
plt.text(x,y+0.08,'{:.2%}'.format(y),ha='center',rotation=90)
>>> plt.ylim([0,1.2])
# 保存图片
>>> fig.savefig('missing.png')
>>> plt.show()
输出结果:
条形图绘制参数详解:
bar(left, height, width=0.8, bottom=None, color=None, edgecolor=None, linewidth=None, tick_label=None, xerr=None, yerr=None, label = None, ecolor=None, align, log=False, **kwargs)
x : sequence of scalars 传递数值序列,指定条形图中x轴上的刻度值。
height : scalar or sequence of scalars传递标量或标量序列,指定条形图y轴上的高度。
width : scalar or array-like, optional, default: 0.8 指定条形图的宽度,默认为0.8.
bottom : scalar or array-like, optional, default: 0条形基的y坐标, 用于绘制堆叠条形图。
align : {'center', 'edge'}, optional, default: 'center'
*"center": 在 x 位置上居中。
*"edge": 用 x 位置对齐条的左边。要对齐右边缘上的条,请通过一个负的 width 和 "align='edge' "。
color : scalar or array-like, optional 指定条形图的填充色。
edgecolor : scalar or array-like, optional 指定条形图的边框色。
linewidth : scalar or array-like, optional 指定条形图边框的宽度,如果指定为0,表示不绘制边框。
tick_label : string or array-like, optional 指定条形图的刻度标签。
xerr, yerr : scalar or array-like of shape(N,) or shape(2,N), optional, default None
如果 not None,表示在条形图的基础上添加误差棒;
值是相对于数据 +/- 误差棒大小;
*标量: 对称的+/- 误差棒值为所有条;
*shape(N,): 每个bar对称+/- 误差棒值;
*shape(2,n): 为每个bar分别设置-和+ 误差棒值。第一行包含较低的错误,第二行包含上的错误。
* None:没有错误。(默认)
label : string or array-like, optional 指定条形图的标签,一般用以添加图例。
ecolor : scalar or array-like, optional, default: 'black'ecolor 指定条形图误差棒的颜色。*align:指定x轴刻度标签的对齐方式,默认为'center',表示刻度标签居中对齐,如果设置为'edge',则表示在每个条形的左下角呈现刻度标签。
log : bool, optional, default: False 是否对坐标轴进行log变换。
**kwargs 关键字参数,用于对条形图进行其他设置,如透明度等。
missingno库--矩阵图、条形图、热图、树状图
mssingno
库提供了一个灵活且易于使用的缺失数据可视化和实用程序的小工具集,可以快速直观地总结数据集的完整性。
相对于前面介绍的利用matplotlib 库可视化缺失值情况,更加方便,可根据实际情况做选择。
代码:
>>> import missingno as msno
>>> msno.matrix(data, labels=True)
输出结果:
矩阵图绘制参数详解:
msno.matrix(df,filter=None, n=0, p=0, sort=None, figsize=(25, 10), width_ratios=(15, 1), color=(0.25, 0.25, 0.25), fontsize=16, labels=None, sparkline=True, inline=False, freq=None, ax=None)
df : DataFrame, default None 被映射的 "DataFrame"
。
filter : str, default None 用于热图的滤镜。可以是"top"
,"bottom"
,或"None"
(默认)之一。
n : int, default 0过滤后的数据格式中包含的最大列数。
P : int, default 0过滤后的数据框中列的最大填充百分比。
sort : str, default None 要应用的行排序顺序。可以是"ascending"
、"descending"
,或"None"
(默认)。
figsize : tuple, default (25, 10) 显示的图形的大小。
fontsize : int, default 16图形的字体大小。
labels : list, default None是否显示列名。如果有的话,当数据列数为50列或更少默认为基础数据标签,超过50列时不使用标签。
sparkline : bool default True 是否显示sparkline
。
width_ratios : tuple default (15,1) 矩阵的宽度与sparkline
的宽度之比。如果"sparkline=False"
,则不执行任何操作。
color : default (0.25,0.25,0.25) 填充栏的颜色。
实际使用中,直接使用默认值即能满足大部分情况下的需求。如常用的参数labels
能够根据数据标签的数量自动选择参数值。
---- 是针对标签列缺失值的简单可视化
代码:
>>> msno.bar(data.iloc[:, 0: 18]) # 使用默认参数即可
输出结果:
矩阵图绘制参数简介:
msno.bar(df, figsize=(24, 10), fontsize=16, labels=None, log=False, color='dimgray', inline=False, filter=None, n=0, p=0, sort=None, ax=None,)
从参数列表中可以看出,条形图与矩阵图参数类似,其中参数inline
将在后面的版本中删除,可以忽略。
"The 'inline' argument has been deprecated, and will be removed in a future version"
missingno
的条形图与matplotlib
条形图有异曲同工之秒:封装的库,使用更加方便,既能看出缺失值数量,又能看出缺失值对百分比。可通过参数对特征变量按照缺失值缺失情况排序显示。
代码:
>>> msno.bar(data.iloc[:, 0: 18], sort='descending')
输出结果:
细心的读者不难看出,此图与上图(未排序)的主题风格并不相同,可利用matplotlib.pyplot
来设置主题:
>>> import matplotlib.pyplot as plt
>>> plt.style.use('seaborn')
>>> %matplotlib inline
----相关性热图措施无效的相关性:一个变量的存在或不存在如何强烈影响的另一个的存在。
代码:
>>> msno.heatmap(data.iloc[:, 0: 13]) # 使用默认参数即可
输出结果:
两个变量的无效相关范围从-1(如果一个变量出现,另一个肯定没有)到0(出现或不出现的变量对彼此没有影响)到1(如果一个变量出现,另一个肯定也是)。 数据全缺失或全空对相关性是没有意义的,所以就在图中就没有了,比如date列就没有出现在图中。 大于-1和小于1表示有强烈的正相关和负相关,但是由于极少数的脏数据所以并不绝对,这些例外的少数情况需要在数据加工时候予以注意。 热图方便观察两个变量间的相关性,但是当数据集变大,这种结论的解释性会变差。
代码:
>>> msno.dendrogram(data.iloc[:, 0: 18])
输出结果:
树状图采用由scipy提供的层次聚类算法通过它们之间的无效相关性(根据二进制距离测量)将变量彼此相加。在树的每个步骤中,基于哪个组合最小化剩余簇的距离来分割变量。变量集越单调,它们的总距离越接近0,并且它们的平均距离越接近零。 在0距离处的变量间能彼此预测对方,当一个变量填充时另一个总是空的或者总是填充的,或者都是空的。 树叶的高度显示预测错误的频率。 和矩阵Matrix一样,只能处理50个变量,但是通过简单的转置操作即可处理更多更大的数据集。
这样的统计计算以及可视化基本已经看出哪些变量缺失,以及缺失比例情况,对数据即有个缺失概况。
Part 2
缺失值处理
缺失值处理思路
先通过一定的方法找到缺失值,接着分析缺失值在整体样本中的分布占比,以及缺失值是否具有显著的无规律分布特征,即第一部分介绍到缺失值分析。然后考虑使用的模型中是否满足缺失值的自动处理,最后决定采用那种缺失值处理方法,即接下来介绍到缺失值处理。
缺失值处理⽅法的选择,主要依据是业务逻辑和缺失值占比,在对预测结果的影响尽可能小的情况下,对缺失值进行处理以满足算法需求,所以要理解每个缺失值处理方法带来的影响,下⾯的缺失值处理⽅法没有特殊说明均是对特征(列,变量)的处理。
代码:
# 删除‘col’列
>>> data.drop('col', axis=1, inplace=True)
# 删除数据表中含有空值的行
>>> data.dropna()
# 丢弃某几列有缺失值的行
>>> data.dropna(axis=0, subset=['a','b'], inplace=True)
# 去掉缺失比例大于80%以上的变量
>>> data.dropna(thresh=len(data)*0.2, axis=1)
参数详解:
data.dropna(axis=0, how='any', thresh=None, subset=None, inplace=False)
inplace : bool, default False 如果为真,执行就地操作并返回None。
subset : array-like, optional 要考虑沿着其他轴的标签,例如,如果您要删除行,这些将是要包含的列的列表。
thresh : int, optional, default 'any' 只保留至少有thresh个非na值的行。
how : {'any', 'all'},default 'any' 确定是否从DataFrame中删除了行或列至少有一个NA或全部NA。* 'any':如果有任何NA值,删除行或列。* 'all':如果所有的值都是NA,删除行或列。
axis : {0 or 'index', 1 or 'columns'}, default 0 确定包含缺失值的行或列是否为移除。* 0,或“索引”:删除包含缺失值的行。* 1,或“columns”:删除包含缺失值的列。
A. 插值填充
# interpolate()插值法,缺失值前后数值的均值,但是若缺失值前后也存在缺失,则不进行计算插补。
>>> data['a'] = data['a'].interpolate()
# 用前面的值替换, 当第一行有缺失值时,该行利用向前替换无值可取,仍缺失
>>> data.fillna(method='pad')
# 用后面的值替换,当最后一行有缺失值时,该行利用向后替换无值可取,仍缺失
>>> data.fillna(method='backfill') # 用后面的值替换
B. 多重插补法
常见插值函数:牛顿插值法、分段插值法、样条插值法、Hermite插值法、埃尔米特插值法和拉格朗日插值法,以下详细介绍拉格朗日插值法的原理和使用。
>>> from scipy.interpolate import lagrange
>>> x=[1,2,3,4,7]
>>> y=[5,7,10,3,9]
>>> f=lagrange(x,y)
<class 'numpy.lib.polynomial.poly1d'> 4
# 这一行是输出a的类型,以及最高次幂。
>>> print(f)
4 3 2
0.5472 x - 7.306 x + 30.65 x - 47.03 x + 28.13
# 第一行和第二行就是插值的结果,显示出的函数。第二行的数字是对应下午的x的幂,
>>> print(f(1),f(2),f(3))
5.000000000000007 7.000000000000014 10.00000000000005
# 此行是代入的x值,得到的结果。即用小括号f(x)的这种形式,可以直接得到计算结果。
>>> print(f[0],f[2],f[3])
28.13333333333334 30.65277777777778 -7.3055555555555545
# 此行是提取出的系数。即可以用f[a]这种形式,来提取出来对应幂的系数。
拉格朗日插值法
from scipy.interpolate import lanrange
对于空间上已知的n个点(无两点在一条直线上)可以找到一个 n-1 次多项式 ,使得多项式曲线过这个点。 需满⾜的假设:MAR:Missing At Random,数据缺失的概率仅和已观测的数据相关,即缺失的概率与未知的数据无关,即与变量的具体数值无关。迭代(循环)次数可能的话超过40,选择所有的变量甚至额外的辅助变量。
C. KNN填充
利用KNN算法填充,将目标列当做目标标签,利用非缺失的数据进行KNN算法拟合,最后对目标标签缺失值进行预测。(对于连续特征一般是用加权平均法,对于离散特征一般是用加权投票法)
>>> from sklearn.neighbors import KNeighborsClassifier, KNeighborsRegressor
>>> def KNN_filled_func(X_train, y_train, X_test, k=3, dispersed=True):
... """
... :params: X_train 为目标列中不含缺失值的数据(不包括目标列)
... :params: y_train 为不含缺失值的目标标签
... :params: X_test 为目标列中为缺失值的数据(不包括目标列)
... """
... if dispersed:
... KNN = KNeighborsClassifier(n_neighbors=k, weights="distance")
... else:
... KNN = KNeighborsRegressor(n_neighbors=k, weights="distance")
... KNN.fit(X_train, y_train)
... return X_test.index, KNN.predict(X_test)
D. 随机森林填补法
其思想与KNN填补法类似。
>>> from sklearn.ensemble import RandomForestRegressor, RandomForestClassifier
>>> def RF_filled_func(X_train, y_train, X_test, k = 3, dispersed = True):
... """
... :params: X_train 为目标列中不含缺失值的数据(不包括目标列)
... :params: y_train 为不含缺失值的目标标签
... :params: X_test 为目标列中为缺失值的数据(不包括目标列)
... """
... if dispersed:
... rf = RandomForestRegressor()
... else:
... rf = RandomForestClassifier()
... rf.fit(X_train, y_train)
... return X_test.index, rf.predict(X_test)
pandas 内 df.fillna()
处理缺失值# 均值填充
>>> data['col'] = data['col'].fillna(data['col'].means())
# 中位数填充
>>> data['col'] = data['col'].fillna(data['col'].median())
# 众数填充
>>> data['col'] = data['col'].fillna(stats.mode(data['col'])[0][0])
sklearn.preprocessing.Imputer()
处理缺失值>>> from sklearn.preprocessing import Imputer
>>> imr = Imputer(missing_values='NaN', strategy='mean', axis=0)
>>> imputed_data = pd.DataFrame(imr.fit_transform(df.values),columns=df.columns)
>>> imputed_data
此外还有结合实际,运用专家补全。
本期主要从缺失值分析--缺失值类型、缺失值成因、缺失值影响;以及缺失值处理--丢弃、补全、真值转换、不处理等各个方面讨论缺失值。数据中缺失值会因数据本身的情况会有不同的处理方法,需要具体问题具体分析。以上介绍了比较常用的缺失值分析和缺失值处理思路和方法,您可以根据数据的具体情况以及自身偏好选择合适等处理方式。
当然,如果您有更好的方法或技巧或思路,可以联系方式笔者,一起讨论,一起学习。
== 如果您觉得本期内容对您有所帮助,请三连支持下笔者,谢谢!==