今天主要带大家来实操学习下Pandas,因为篇幅原因,分为了两部分,本篇为下。上篇内容见:小白也能看懂的Pandas实操演示教程(上)。
pandas实现对数据的增删改查
增:添加新行或增加新列
dict={'Name':['LiuShunxiang','Zhangshan'],
'Sex':['M','F'],
'Age':[27,23],
'Height':[165.7,167.2],
'weight':[61,63]}
print(dict)
student1=pd.DataFrame(dict)
print(student1)
dict={'Name':['Liu','Zhang'],
'Sex':['M','F'],
'Age':[27,23],
'Height':[165.7,167.2],
'weight':[61,63]}
student2=pd.DataFrame(dict)
{'Name': ['LiuShunxiang', 'Zhangshan'], 'Sex': ['M', 'F'], 'Age': [27, 23], 'Height': [165.7, 167.2], 'weight': [61, 63]}
Age Height Name Sex weight
0 27 165.7 LiuShunxiang M 61
1 23 167.2 Zhangshan F 63
将student2中的数据新增到student1中,可以通过concat函数实现,concat函数对index无视
student3=pd.concat([student1,student2],ignore_index='Ture')
student3
pd.DataFrame(student2,columns=['Age','Heught','Name','Sex','weight','Score'])
删:删除表、观测行或变量列
del student2
student2
---------------------------------------------------------------------------
NameError Traceback (most recent call last)
<ipython-input-61-dbecb61e032f> in <module>()
----> 1 student2
NameError: name 'student2' is not defined
student3.drop([0])
student3[student3['Age']<25]
student3.drop(['Height','weight'],axis=1)
不论删除行还是列,都可以通过drop方法实现,只需要设定好删除的轴即可,即调整drop方法中的axis参数。默认参数为0,即删除行观测数据,如果需要删除列变量,则需要设置为1.
改:修改原始记录的值
如果发现表中的数据错了,如何更改原来的值呢?尝试结合布尔索引和赋值的方法
student3
假设需要修改liu学生的身高为173
student3.loc[student3['Name']=='Liu','Height']=173
student3
查:类似上边的数据查询部分
student3.groupby('Sex').mean()
多个分组变量,例如根据年龄和性别分组,计算身高和体重的平均值
student3.groupby(['Sex','Age']).mean()
对每个分组计算多个统计量
student3.drop('Age',axis=1).groupby('Sex').agg([np.mean,np.median])
排序:sort_values
series=pd.Series(np.array(np.random.randint(1,20,10)))
series
0 3
1 13
2 13
3 17
4 5
5 15
6 17
7 15
8 4
9 16
dtype: int32
series.sort_values()
0 3
8 4
4 5
1 13
2 13
5 15
7 15
9 16
3 17
6 17
dtype: int32
series.sort_values(ascending=False)
6 17
3 17
9 16
7 15
5 15
2 13
1 13
4 5
8 4
0 3
dtype: int32
student3.sort_values(by=['Sex','Age'])
dict2={'Name':['Alfred','Alice','Barbara','Carol','Henry','Jeffrey','Judy','Philip','Robert','william'],
'Score':[88,76,89,67,79,90,92,86,73,77]}
score=pd.DataFrame(dict2)
score
student3['Name']=['Alfred','Alice','Barbara','Carol']
student3
把学生表和成绩表做一个关联,默认情况下实现的是两个表之间的内连接,即返回两张表中共同部分的数据
stu_score1=pd.merge(student3,score,on='Name')
stu_score1
stu_score1=pd.merge(student3,score,on='Name',how='inner')
stu_score1
使用how参数设置连接的方式,left为左连接,right为右连接,outer为外连接
stu_score2=pd.merge(student3,score,on='Name',how='left')
stu_score2
保留score表中的所有信息,同时将student3表的信息与之配对,能配多少配多少,对于没有配上的score,将会显示Nan
stu_score3=pd.merge(student3,score,on='Name',how='right')
stu_score3
stu_score4=pd.merge(student3,score,on='Name',how='outer')
stu_score4
现实中的数据存在很多噪音的同时,缺失值也非常的常见。缺失值的存在会影响后期的数据分析或挖掘工作,那么缺失值的处理有哪些方法呢?
当数据中某个变量大部分值都会缺失值时,可以考虑删除该变量; 当缺失值时随机分布的,且缺失的数量并不是很多时,可以删除这些缺失的观测; 默认情况下,dropna会删除任何含有缺失值的行, 构造个数据框
df=pd.DataFrame([[1,1,2],[3,5,np.nan],[13,21,34],[55,np.nan,10],
[np.nan,np.nan,np.nan],[np.nan,1,2]],columns=['x1','x2','x3'])
df
df.dropna()
df=pd.DataFrame([[1,1,2],[3,5,np.nan],[13,21,34],[55,np.nan,10],
[np.nan,np.nan,np.nan],[np.nan,1,2]],columns=['x1','x2','x3'])
df.dropna(how='all')
df=pd.DataFrame([[1,1,2],[3,5,np.nan],[13,21,34],[55,np.nan,10],
[np.nan,np.nan,np.nan],[np.nan,1,2]],columns=['x1','x2','x3'])
df.dropna(how='any')
df=pd.DataFrame([[1,1,2,np.nan],[3,5,np.nan,np.nan],[13,21,34,np.nan],[55,np.nan,10,np.nan],
[np.nan,np.nan,np.nan,np.nan],[np.nan,1,2,np.nan]],columns=['x1','x2','x3','x4'])
print(df)
df.dropna(how='all',axis=1)
x1 x2 x3 x4
0 1.0 1.0 2.0 NaN
1 3.0 5.0 NaN NaN
2 13.0 21.0 34.0 NaN
3 55.0 NaN 10.0 NaN
4 NaN NaN NaN NaN
5 NaN 1.0 2.0 NaN
行方向上至少有3个非NAN的项保留
df=pd.DataFrame([[1,1,2,np.nan],[3,5,np.nan,np.nan],[13,21,34,np.nan],[55,np.nan,10,np.nan],
[np.nan,np.nan,np.nan,np.nan],[np.nan,1,2,np.nan]],columns=['x1','x2','x3','x4'])
df.dropna(thresh=3)
df=pd.DataFrame([[1,1,2,np.nan],[3,5,np.nan,np.nan],[13,21,34,np.nan],[55,np.nan,10,np.nan],
[np.nan,np.nan,np.nan,np.nan],[np.nan,1,2,np.nan]],columns=['x1','x2','x3','x4'])
df.dropna(thresh=1)
在列方向上至少保留有3个非NAN的项保留
df=pd.DataFrame([[1,1,2,np.nan],[3,5,np.nan,np.nan],[13,21,34,np.nan],[55,np.nan,10,np.nan],
[np.nan,np.nan,np.nan,np.nan],[np.nan,1,2,np.nan]],columns=['x1','x2','x3','x4'])
df.dropna(thresh=3,axis=1)
对于连续变量,如果变量的分布近似或就是正态分布的话,可以用均值替代那些缺失值; 如果变量是有偏的,可以使用中位数来代替那些缺失值; 对于离散型变量,一般使用众数去替换那些存在缺失的预测;
fillna函数的参数:
value:用于填充缺失值的标量值或者字典对象 method:插值方式,如果函数调用时,未指定其他参数的话默认值fill axis:待填充的轴默认值axis=0 inplace:修改调用这对象而不产生副本 limit:(对于前向和后项填充)可以连续填充的最大数量
使用一个常量来填补缺失值,可以使用fillna函数实现简单的填补工作
df.fillna(0)
df.fillna(method='ffill')
用后一个观测值填充--这样会导致最后边的无法填充Nan
df.fillna(method='bfill')
df.fillna({'x1':1,'x2':2,'x3':3})
x1_median=df['x1'].median()
x2_mean=df['x2'].mean()
x3_mean=df['x3'].mean()
print(x1_median,x2_mean,x3_mean)
8.0 7.0 12.0
df.fillna({'x1':x1_median,'x2':x2_mean,'x3':x3_mean})
使用填充法时,相对于常数填充或者前项、后项填充,使用各列众数,均值或中位数填充要更加合理些,这也是工作中常用的一个快捷手段。
pivot_table(data,values=None,index=None,columns=None,aggfunc='mean', fill_value=None,margins=False,dropna=True,margins_name='All')
data:需要进行数据透视表操作的数据框 values:指定需要聚合的字段 index:指定某些原始变量作为行索引 columns:指定哪些离散的分组变量 aggfunc:指定相应的聚合函数 fill_value:使用一个常数替代缺失值,默认不替换 margins:是否进行行或列的汇总,默认不汇总 dropna:默认所有观测为缺失的列 margins_name:默认行汇总或列汇总的名称为‘ALL’
test_data.head()
marital作为分组变量,balance作为数值变量做统计汇总
pd.pivot_table(test_data,values=['balance'],columns=['marital'])
marital作为1个分组变量,balance,housing作为两个数值变量做统计汇总
pd.pivot_table(test_data,values=['balance','housing'],columns=['marital'])
marital,job作为2个分组变量,balance作为1个数值变量做统计汇总
pd.pivot_table(test_data,values=['balance','housing'],columns=['marital','job'])
marital job
balance 1 1 1228.493671
2 1785.391272
3 2353.951501
4 845.000000
5 1243.956701
6 977.805556
7 1364.432602
8 1243.585938
9 1579.081081
10 1952.578544
11 1270.040984
12 1749.975000
2 1 1355.333333
2 1501.268148
3 1890.900000
4 1205.809322
5 1438.189147
6 878.873606
7 1236.768448
8 1047.812500
9 1716.306931
10 1367.694737
11 2158.580000
12 814.833333
3 1 1166.673913
2 1801.176471
3 1454.990196
4 2946.000000
5 962.784141
6 940.809917
...
housing 1 7 1.601881
8 1.725361
9 1.459459
10 1.475096
11 1.573770
12 1.000000
2 1 1.393939
2 1.482963
3 1.300000
4 1.241525
5 1.533333
6 1.676580
7 1.587786
8 1.708333
9 1.257426
10 1.452632
11 1.540000
12 1.055556
3 1 1.239130
2 1.533088
3 1.235294
4 1.000000
5 1.550661
6 1.628099
7 1.657609
8 1.705521
9 1.513514
10 1.457143
11 1.571429
12 1.500000
Length: 72, dtype: float64
marital,job作为2个分组变量,balance,housing作为两个数值变量做统计汇总
pd.pivot_table(test_data,values=['balance','housing'],columns=['marital','job'])
marital job
balance 1 1 1228.493671
2 1785.391272
3 2353.951501
4 845.000000
5 1243.956701
6 977.805556
7 1364.432602
8 1243.585938
9 1579.081081
10 1952.578544
11 1270.040984
12 1749.975000
2 1 1355.333333
2 1501.268148
3 1890.900000
4 1205.809322
5 1438.189147
6 878.873606
7 1236.768448
8 1047.812500
9 1716.306931
10 1367.694737
11 2158.580000
12 814.833333
3 1 1166.673913
2 1801.176471
3 1454.990196
4 2946.000000
5 962.784141
6 940.809917
...
housing 1 7 1.601881
8 1.725361
9 1.459459
10 1.475096
11 1.573770
12 1.000000
2 1 1.393939
2 1.482963
3 1.300000
4 1.241525
5 1.533333
6 1.676580
7 1.587786
8 1.708333
9 1.257426
10 1.452632
11 1.540000
12 1.055556
3 1 1.239130
2 1.533088
3 1.235294
4 1.000000
5 1.550661
6 1.628099
7 1.657609
8 1.705521
9 1.513514
10 1.457143
11 1.571429
12 1.500000
Length: 72, dtype: float64
很显然,这样的结果并不想Excel中预期的那样,该如何变成列联表的形式呢?很简单,只需将结果进行非堆叠操作即可。
pd.pivot_table(test_data,values=['balance','housing'],columns=['marital','job']).unstack()
这样的结果看起来更舒服一些
使用多个聚合函数
pd.pivot_table(test_data,values=['balance','housing'],columns=['marital'],
aggfunc=[np.mean,np.median,np.std])
接下再讲一个Pandas中的重要功能,那就是多层索引。 序列的多层索引类似于Excel中如下形式。
Series的多层索引
s=pd.Series([1,2,3,4],index=[['小张','小张','老王','老王'],
['期中','期末','期中','期末']])
s
小张 期中 1
期末 2
老王 期中 3
期末 4
dtype: int64
取回最外层索引为‘小张’的所有数据
s[['小张']]
小张 期中 1
期末 2
dtype: int64
取回最内层所有为‘期中’的数据
s[:,'期中']
小张 1
老王 3
dtype: int64
s.unstack()
期中 | 期末 | |
---|---|---|
小张 | 1 | 2 |
老王 | 3 | 4 |
以上是对序列的多层次索引,接下来将对数据框的多层次索引,多层索引的形式类似excel中的如下形式。
df=pd.DataFrame(np.random.randint(10,50,20).reshape(5,4),
index=[['A','A','A','B','B'],[1,2,3,1,2]],
columns=[['x','x','x','y'],['x1','x2','x3','y']])
df
df['x']
df.loc[['A'],:]
在数据框中使用多层索引,可以将整个数据集控制在二维表结构中,这对于数据重塑和基于分组的操作(如数据透视表的生成)比较有帮助。以test_data二维数据框为例,构造一个多层索引数据集。
pd.pivot_table(test_data,index=['marital','loan'])
以上pandas模块的基本学习就完成了。