首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Pandas系列 - 基本功能和统计操作

- axis=1 mean()方法 std()方法 - 标准差 四、汇总数据 包含字符串列 五、全部包含 一、系列基本功能 编号 属性或方法 描述 1 axes 返回行轴标签列表 2 dtype 返回对象的数据类型...dtype: float64 >>> s.axes ## 返回行轴标签列表 [RangeIndex(start=0, stop=4, step=1)] >>> s.dtype ## 返回对象的数据类型...(dtypes) 4 empty 如果NDFrame完全为空[无项目],则返回为True; 如果任何轴的长度为0 5 ndim 轴/数组维度大小 6 shape 返回表示DataFrame的维度的元组...7 size NDFrame中的元素数 8 values NDFrame的Numpy表示 9 head() 返回开头前n行 10 tail() 返回最后n行 sum(),mean()等聚合函数的应用...30 Gasper 4.80 10 51 Betina 4.10 11 46 Andres 3.65 三、基本统计性聚合函数 编号 函数 描述 1 count() 空观测数量

67610
您找到你想要的搜索结果了吗?
是的
没有找到

上手Pandas,带你玩转数据(1)-- 实例详解pandas数据结构

数据帧 2 一般的二维标签,大小可变的表格结构,具有潜在的均匀类型列。 面板 3 一般3D标签,大小可变的数组。 ---- Series 系列是具有均匀数据的一维数组结构。...dtype='int32'), 'E': pd.Categorical(["test", "train", "test", "train"]), 'F': 'foo' } ) 这种方式生成的对象是这样的...dtype 返回对象的dtype。 empty 如果series为空,则返回True。 ndim 根据定义1返回基础数据的维度数。 size 返回基础数据中元素的数量。...dtypes 返回此对象中的dtypes。 empty 如果NDFrame完全为空[没有项目],则为true; 如果任何轴的长度为0。 ndim 轴/阵列尺寸的数量。...size NDFrame中的元素数目。 values NDFrame的Numpy表示。 head() 返回前n行。 tail() 返回最后n行。

6.6K30

python下的Pandas中DataFrame基本操作(一),基本函数整理

pandas作者Wes McKinney 在【PYTHON FOR DATA ANALYSIS】中对pandas的方方面面都有了一个权威简明的入门级的介绍,但在实际使用过程中,我发现书中的内容还只是冰山一角...谈到pandas数据的行更新、表合并等操作,一般用到的方法有concat、join、merge。但这三种方法对于很多新手来说,都不太好分清使用的场合与用途。...errors]) 转换数据类型 DataFrame.copy([deep]) 复制数据框 DataFrame.isnull() 以布尔的方式返回空值 DataFrame.notnull() 以布尔的方式返回空值...DataFrame.corrwith(other[, axis, drop]) 返回不同数据框的相关性 DataFrame.count([axis, level, numeric_only]) 返回空元素的个数...参考文献: http://pandas.pydata.org/pandas-docs/stable/api.html#dataframe

11K80

数据科学 IPython 笔记本 7.9 组合数据集:连接和附加

在这里,我们将使用pd.concat函数的,看一下Series和DataFrame的简单连接;稍后我们将深入研究 Pandas 中实现的内存中的更复杂的合并和连接。...[1, 2, 1, 2], [3, 4, 3, 4]]) ''' 使用pd.concat的简单连接 Pandas 拥有函数pd.concat(),它的语法与np.concatenate类似...重复的索引 np.concatenate和pd.concat之间的一个重要区别是,Pandas连接保留了索引,即使结果会有重复的索引!...pd.concat()为我们提供了一些处理它的方法。 将重复捕获为错误 如果你想简单地验证,pd.concat()结果中的索引不重叠,你可以指定verify_integrity标志。...这是一个示例,为清楚起见,我们将捕获并打印错误消息: try: pd.concat([x, y], verify_integrity=True) except ValueError as e:

82520

python下的Pandas中DataFrame基本操作,基本函数整理

参考链接: Pandas DataFrame中的转换函数 pandas作者Wes McKinney 在【PYTHON FOR DATA ANALYSIS】中对pandas的方方面面都有了一个权威简明的入门级的介绍...谈到pandas数据的行更新、表合并等操作,一般用到的方法有concat、join、merge。但这三种方法对于很多新手来说,都不太好分清使用的场合与用途。   ...copy, errors])转换数据类型DataFrame.copy([deep])复制数据框DataFrame.isnull()以布尔的方式返回空值DataFrame.notnull()以布尔的方式返回空值...is_copy])Analogous to ndarray.takeDataFrame.truncate([before, after, axis, copy])Truncates a sorted NDFrame...参考文献:     http://pandas.pydata.org/pandas-docs/stable/api.html#dataframe          <link rel="stylesheet

2.4K00

Python数据分析之数据预处理(数据清洗、数据合并、数据重塑、数据转换)学习笔记

参考链接: Python | pandas 合并merge,联接join和级联concat 文章目录  1....astype()方法存在着一些局限性,只要待转换的数据中存在数字以外的字符,在使用 astype()方法进行类型转换时就会出现错误,而to_numeric()函数的出现正好解决了这个问题。 ...数据合并  2.1轴向堆叠数据  2.1.1 concat()函数  ​ concat()函数可以沿着一条轴将多个对象进行堆叠,其使用方式类似数据库中的数据表合并。 ...2.2 主键合并数据  ​ 主键合并类似于关系型数据库的连接方式,它是指根据个或多个键将不同的 DataFrame对象连接起来,大多数是将两个 DataFrame对象中重叠的列作为合并的键。 ...inplace:默认为False,表示是否返回新的Pandas对象。  4.2 离散化连续数据  Pandas 的 cut ()函数能够实现离散化操作。

5.1K00

Pandas_Study02

数据的缺失有很多原因,缺失不是错误、无效,需要对缺失的数据进行必要的技术处理,以便后续的计算、统计。 可以通过numpy 模块的 nan 得到NaN 值。...dropna() 删除NaN 值 可以通过 dropna 方法,默认按行扫描(操作),会将每一行有NaN 值的那一行删除,同时默认是对原对象的副本操作,不会对原对象产生影响,也可以通过inplace 指示是否直接在原对象上操作...2. concat 的内外连接 concat 的内外连接,就是 join 参数的指定,为 inner 时为内连接,为outer 时外连接。...([df1, df2], join = "outer") # "***inner join" pd.concat([df1, df2], join = "inner") # concat 的内外连接 实际上就是对两个...DataFrame数据对象经groupby()之后有ngroups和groups等属性,其本质是DataFrame类的子类DataFrameGroupBy的实例对象

18110

在Python中利用Pandas库处理大数据

使用不同分块大小来读取再调用 pandas.concat 连接DataFrame,chunkSize设置在1000万条左右速度优化比较明显 loop = True chunkSize = 100000...(chunks, ignore_index=True) 下面是统计数据,Read Time是数据读取时间,Total Time是读取和Pandas进行concat操作的时间,根据数据总量来看,对5~50...个DataFrame对象进行合并,性能表现比较好。...Pandas空计算速度很快,9800万数据也只需要28.7秒。得到初步信息之后,可以对表中空列进行移除操作。...尝试了按列名依次计算获取 空列,和 DataFrame.dropna() 两种方式,时间分别为367.0秒和345.3秒,但检查时发现 dropna() 之后所有的行都没有了,查了Pandas手册,原来不加参数的情况下

2.8K90

【学习】在Python中利用Pandas库处理大数据的简单介绍

使用不同分块大小来读取再调用 pandas.concat 连接DataFrame,chunkSize设置在1000万条左右速度优化比较明显 loop = True chunkSize = 100000...(chunks, ignore_index=True) 下面是统计数据,Read Time是数据读取时间,Total Time是读取和Pandas进行concat操作的时间,根据数据总量来看...,对5~50个DataFrame对象进行合并,性能表现比较好。...Pandas空计算速度很快,9800万数据也只需要28.7秒。得到初步信息之后,可以对表中空列进行移除操作。...尝试了按列名依次计算获取 空列,和 DataFrame.dropna() 两种方式,时间分别为367.0秒和345.3秒,但检查时发现 dropna() 之后所有的行都没有了,查了Pandas手册,原来不加参数的情况下

3.2K70

使用 Pandas 处理亿级数据

is stopped." | ----- | | | 1百万条 | 1千万条 | 1亿条 | | ServiceLogs | 1 s | 17 s | 263 s | 使用不同分块大小来读取再调用 pandas.concat...(chunks, ignore_index=True) 下面是统计数据,Read Time是数据读取时间,Total Time是读取和Pandas进行concat操作的时间,根据数据总量来看,对5~50...个DataFrame对象进行合并,性能表现比较好。...Pandas空计算速度很快,9800万数据也只需要28.7秒。得到初步信息之后,可以对表中空列进行移除操作。...尝试了按列名依次计算获取空列,和 DataFrame.dropna()两种方式,时间分别为367.0秒和345.3秒,但检查时发现 dropna() 之后所有的行都没有了,查了Pandas手册,原来不加参数的情况下

2.1K40

使用Python Pandas处理亿级数据

StopIteration: print "Iteration is stopped." 1百万条 1千万条 1亿条 ServiceLogs 1 s 17 s 263 s 使用不同分块大小来读取再调用 pandas.concat...df = pd.concat(chunks, ignore_index=True) 下面是统计数据,Read Time是数据读取时间,Total Time是读取和Pandas进行concat操作的时间,...根据数据总量来看,对5~50个DataFrame对象进行合并,性能表现比较好。...作为结果进行填充,如下图所示: Pandas空计算速度很快,9800万数据也只需要28.7秒。...尝试了按列名依次计算获取空列,和 DataFrame.dropna() 两种方式,时间分别为367.0秒和345.3秒,但检查时发现 dropna() 之后所有的行都没有了,查了Pandas手册,原来不加参数的情况下

2.2K70

【Python环境】使用Python Pandas处理亿级数据

使用不同分块大小来读取再调用 pandas.concat 连接DataFrame,chunkSize设置在100万条左右速度优化比较明显。...(chunks, ignore_index=True) 下面是统计数据,Read Time是数据读取时间,Total Time是读取和Pandas进行concat操作的时间,根据数据总量来看,对5~50...个DataFrame对象进行合并,性能表现比较好。...Pandas空计算速度很快,9800万数据也只需要28.7秒。得到初步信息之后,可以对表中空列进行移除操作。...尝试了按列名依次计算获取空列,和 DataFrame.dropna() 两种方式,时间分别为367.0秒和345.3秒,但检查时发现 dropna() 之后所有的行都没有了,查了Pandas手册,原来不加参数的情况下

2.2K50

数据导入与预处理-第6章-01数据集成

数据导入与预处理-第6章-01数据集成 1 数据集成概述 1.1 数据集成需要关注的问题 2 基于Pandas实现数据集成 2.1 主键合并数据merge 2.2 堆叠合并数据concat 2.3 重叠合并数据...126] # 属性A和B的协方差: 1217.7421052631578 # 属性A和B的相关系数: 1.0 3.元组重复 元组重复是数据集成期间另一个容易产生的数据冗余问题,这一问题主要是因为录入错误或未及时更新造成的...2 基于Pandas实现数据集成 pandas中内置了许多能轻松地合并数据的函数与方法,通过这些函数与方法可以将Series类对象或DataFrame类对象进行符合各种逻辑关系的合并操作,合并后生成一个整合的...pandas.concat(objs, axis=0, join='outer', join_axes=None, ignore_index=False, keys=None, levels...,即合并结果为多个对象重叠部分的索引及数据,没有数据的位置填充为NaN;'outer’表示外连接,即合并结果为多个对象各自的索引及数据,没有数据的位置填充为NaN。

2.5K20

python数据科学系列:pandas入门详细教程

pandas完成这两个功能主要依赖以下函数: concat,与numpy中的concatenate类似,但功能更为强大,可通过一个axis参数设置是横向或者拼接,要求拼接轴向标签唯一(例如沿着行进行拼接时...inner、left、right和outer4种连接方式,但只能实现SQL中的等值连接 join,语法和功能与merge一致,不同的是merge既可以用pandas接口调用,也可以用dataframe对象接口调用...,而join则只适用于dataframe对象接口 append,concat执行axis=0时的一个简化接口,类似列表的append函数一样 实际上,concat通过设置axis=1也可实现与merge...类似的效果,二者的区别在于:merge允许连接字段重复,类似一对多或者多对一连接,此时将产生笛卡尔积结果;而concat则不允许重复,仅能一对一拼接。...通过设置参数,concat和merge实现相同效果 06 数据分析 ?

13.8K20
领券