前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >3000字详解四种常用的缺失值处理方法

3000字详解四种常用的缺失值处理方法

作者头像
行哥玩Python
发布2020-09-17 14:22:34
1.4K0
发布2020-09-17 14:22:34
举报
文章被收录于专栏:一行数据一行数据

不论是自己爬虫获取的还是从公开数据源上获取的数据集,都不能保证数据集是完全准确的,难免会有一些缺失值。而以这样数据集为基础进行建模或者数据分析时,缺失值会对结果产生一定的影响,所以提前处理缺失值是十分必要的。

对于缺失值的处理大致可分为以下三方面:

  • 不处理
  • 删除含有缺失值的样本
  • 填充缺失值

不处理应该是效果最差的了,删除虽然可以有效处理缺失值,但是会损伤数据集,好不容易统计的数据因为一个特征的缺失说删就删实在说不过去。填充缺失值应该是最常用且有效的处理方式了,下面介绍四种处理缺失值的常用Tips。

我自己构建了一个简易的含有缺失值的DataFrame,所有操作都基于这个数据集进行。

1、删除缺失值

删除虽说是一个可行的方式,但肯定是不能随便删除的,比如一个样本中仅有一个特征的值缺失,这样的情况下填充取得的效果一定会优于删除,所以在删除缺失值时,我们需要一个衡量的标准。

删除的方式无非有两种,一是删除缺失值所在行,也就是含有缺失值的样本;二就是删除缺失值所在列,也就是含有缺失值的特征,下面以后者为例。

首先需要确定的是删除的标准是什么?比如一个特征的缺失值所占比例已经超过了50%,如果选择填充的话,就表明该特征超五成的值都是自己猜测填入的,导致误差可能比删除这个特征还要大。

代码语言:javascript
复制
def find_missing(data):
    #统计缺失值个数
    missing_num = data.isna().sum(axis=0).sort_values(ascending=False)
    missing_prop = missing_num/float(len(data)) #计算缺失值比例
    drop_index = missing_prop[missing_prop>0.5].index.tolist() #过滤要删除特征名
    return drop_index

在确定了这个标准之后,就可以利用一个自定义函数,将我们期望实现的功能封装至函数中。比如上面这个函数,先确定每个特征的缺失值个数并降序排列,然后计算缺失值比例,最后利用布尔索引得到需要删除的特征名。

代码语言:javascript
复制
data2 = data.copy()
data2.drop(find_missing(data2),axis = 1)

在数据集上应用这个函数,可以看到缺失值占比超50%的特征C被删除了。

这个衡量标准自己可以依据情况设定,然后删除样本的方式可以类比上述删除特征的方式。

2、pandas填充

pandas中的fillna()应该是最常用的一种填充缺失值方法,可以指定填充指定列或者整个数据集。

代码语言:javascript
复制
data['A'].fillna(value = data['A'].mean(),limit=1)

比如上面这句代码,就是只填充特征A一列,填充的选择可以利用平均数、中位数、众数等等,limit是限制要填充的个数,如果有两个缺失值,但是参数limit=1的话,按顺序填充第一个。

value参数也允许传入字典格式,键为要填充的特征名,值为要填充的缺失值。

代码语言:javascript
复制
values = {'A':4,'B':3,'C':4}
data.fillna(value=values)

填充之后结果如下:

fillna()方法固然简单,但前提是含有缺失值的特征比较少,如果很多的话,代码就会很冗杂,客观性也比较差。

3、sklearn填充

第二种填充方式是利用sklearn中自带的API进行填充。

代码语言:javascript
复制
from sklearn.impute import SimpleImputer
data1 = data.copy()
#得到含有缺失值的特征
miss_index = data1.isna().any()[data1.isna().any().values == True].index.tolist()
print(miss_index)
'''
['A', 'B', 'C']
'''

首先利用布尔索引得到数据集含有缺失值的特征,后续操作只针对含有缺失值的特征。

代码语言:javascript
复制
miss_list = []
for i in miss_index:
    #将一维数组转化为二维
    miss_list.append(data1[i].values.reshape(-1,1))
for i in range(len(miss_list)):
    #利用众数进行填充
    imp_most = SimpleImputer(strategy='most_frequent')
    imp_most = imp_most.fit_transform(miss_list[i])
    data1.loc[:,miss_index[i]] = imp_most

最需要注意的一点是SimpleImputer传入的参数至少要是二维,如果将直接索引出的一列特征传入的话,是会发生报错的,所以必须利用reshape()将一维转化为二维。之后的操作就是先实例化、然后训练模型,最后用填充后的数据覆盖之前的数据。

参数strategy共有四个选项可填:

  • 1、mean:平均数
  • 2、median:中位数
  • 3、most_frequent:众数
  • 4、constant:如果参数指定这个,将会选择另一个参数fill_value中的值作为填充值。

SimpleImputer优于fillna()之处在于前者可以一行语句指定填充值的形式,而利用fillna()需要多行重复语句才能实现,或者需要提前计算某列的平均值、中位数或者众数。

4、利用算法填充

我们都知道一般的算法建模是通过n个特征来预测标签变量,也就是说特征与标签标量之间存在某种关系,那么通过标签变量与(n-1)个特征是否能预测出剩下的一个特征呢?答案肯定是可以的。

实际上标签变量和特征之间可以相互转化,所以利用这种方法就可以填补特征矩阵中含有缺失值的特征,尤其适用于一个特征缺失值很多,其余特征数据很完整,特别标签变量那一列的数据要完整。

但是往往一个特征矩阵中很多特征都含有缺失值,对于这种情况,可以从特征缺失值最少的一个开始,因为缺失值越少的特征需要的信息也就越少。

当预测一个特征时,其余特征的缺失值都需要用0暂时填补,每当预测完一列特征,就用预测出的结果代替原数据集对应的特征,然后预测下一特征,直至最后一个含有缺失值的特征,此时特征矩阵中应该没有需要利用0填补的缺失值了,表示数据集已经完整。

以随机森林算法为例,实现上面表述填充缺失值的过程。

代码语言:javascript
复制
data3 = data.copy()
#获取含有缺失值的特征
miss_index = data3.isna().any()[data3.isna().any().values == True].index.tolist()
#按照缺失值多少,由小至大排序,并返回索引
sort_miss_index = np.argsort(data3[miss_index].isna().sum(axis = 0)).values
sort_miss_index
'''
array([1, 0, 2], dtype=int64)
'''

第一步就是通过布尔索引得到含有缺失值的特征,并且根据缺失值的多少进行由小到大排序,这里选择利用argsort,因为返回的排序是特征在特征矩阵中的索引。

代码语言:javascript
复制
for i in sort_miss_index:
    data3_list =  data3.columns.tolist() #特征名
    data3_copy = data3.copy() 
    fillc = data3_copy.iloc[:,i] #需要填充缺失值的一列  
    # 从特征矩阵中删除这列,因为要根据已有信息预测这列
    df = data3_copy.drop(data3_list[i],axis = 1) 
    #将已有信息的缺失值暂用0填补
    df_0 = SimpleImputer(missing_values=np.nan,strategy='constant',fill_value=0).fit_transform(df)
    
    Ytrain = fillc[fillc.notnull()]#训练集标签为填充列含有数据的一部分
    Ytest = fillc[fillc.isnull()]#测试集标签为填充列含有缺失值的一部分
    
    Xtrain = df_0[Ytrain.index,:]#通过索引获取Xtrain和Xtest
    Xtest = df_0[Ytest.index,:]
    
    rfc = RandomForestRegressor(n_estimators = 100)#实例化
    rfc = rfc.fit(Xtrain,Ytrain)  # 导入训练集进行训练
    Ypredict = rfc.predict(Xtest) # 将Xtest传入predict方法中,得到预测结果
    #获取原填充列中缺失值的索引
    the_index = data3[data3.iloc[:,i].isnull()==True].index.tolist()
    data3.iloc[the_index,i] = Ypredict# 将预测好的特征填充至原始特征矩阵中

这部分代码主要的思想就是,先将需预测的一列特征暂定为标签,然后预测列中含有数据的一部分作为训练集,含有缺失值的一部分作为测试集,通过随机森林在训练集上建模,利用模型在测试集的基础上得到缺失值那部分的数据,最后填充值原特征矩阵中。

最后预测出的结果如下:

可以看到原特征矩阵中缺失值的一部分被填充好了,这种利用算法填充缺失值的方法应该是精度最高的,因为缺失值是在原有数据的基础上预测出的,而不是随意猜测的,但缺点就是没有前几种便利,当特征或缺失值较多时会比较耗时。

说在最后

缺失值处理是特征工程至关重要的一步,而特征工程和数据本身往往决定着一个模型的上限,所以数据集中的缺失值在一个项目中值得我们花些时间去处理,而不是用自己的幸运数字随意填充,一句话总结就是"你不要你觉得,而是模型觉得"。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-09-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 一行数据 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1、删除缺失值
  • 2、pandas填充
  • 3、sklearn填充
  • 4、利用算法填充
  • 说在最后
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档