腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
python
中
pd
groupby
中
的
不同
聚合
、
我有一个这样
的
df,并且需要在
groupby
中
执行多个
聚合
,包括连接行和在相同
的
cols上执行
不同
的
操作。import pandas as
pd
sample =
pd
.DataFrame({'group':['a']*3+['b']*6, 'time':[1,2,4,6,7,8,9,12,15],'type':['a
浏览 37
提问于2021-02-12
得票数 1
回答已采纳
2
回答
加速循环-为Dataframe赋值
、
、
、
我有一个函数运行
的
有点太慢,我不喜欢,而且似乎不能让它更快。我有57种产品和402家商店。下面的函数创建以products为索引
的
dataframe,并以列
的
形式存储。目标是获取按产品销售
的
最大数量,并存储并将其分配给"unconstraintload_df“数据帧。它似乎在做这项工作,但它需要大量
的
时间才能完成。有没有人有什么办法可以加快速度呢?Prod Code"].unique() StoreNumberList = training_DS["Store&quo
浏览 42
提问于2019-09-16
得票数 0
回答已采纳
1
回答
将大型.bz2文件加载并
聚合
到pandas
中
的
有效方法是什么?
、
我试图以块
的
形式加载一个大
的
bz2文件,并将其
聚合
到一个pandas DataFrame
中
,但是
Python
总是崩溃。我正在使用
的
方法如下,我已经在较小
的
数据集上取得了成功。将比内存更大
的
文件
聚合
到Pandas
中
更有效
的
方法是什么?import pandas as
pd
reader =
pd
.read_json('RC_2017-09.bz2'
浏览 43
提问于2019-03-28
得票数 1
1
回答
你将如何使用熊猫来汇总这些数据?
、
、
、
、
想象一下拥有这些数据: 'country': ['France', 'France', 'Germany', 'Germany', 'France', 'SpainFrance 5 22
Python
6 Germany 7 23 Go 我要找
的
是用这种形式
聚合
它
浏览 2
提问于2022-07-24
得票数 0
回答已采纳
1
回答
pandas group by agg根据pattern在组内选择
、
、
我正在尝试编写一个自定义
聚合
函数,它将始终从每个组中选择以最少零结尾
的
字符串。例如,下面是一个数据帧示例: import pandas as
pd
df =
pd
.DataFrame({"group" : [1, 1, 1, 2, 2], "value" : ["10534",我
的
自定义
聚合
函数独立工作,但在包含在.
groupby
().agg()公式
中
时不会返回预期
的
结果:
浏览 28
提问于2021-08-16
得票数 0
回答已采纳
4
回答
在
Python
或R
中
,有没有更有效
的
方法来
聚合
数据集和计算频率?
、
、
我有一个数据集0,1,1,2,我想要
聚合
它。为此,我必须计算“频率”并将其放入DataFrame
中
:1/4。下面是代码。>>> df =
pd
.DataFrame({'value':[0, 1, 1, 2],>>> df.
groupby
('value').sum()value 0 0.25
浏览 0
提问于2019-03-16
得票数 1
3
回答
什么是熊猫
的
dplyr总结/
聚合
的
多个函数
的
等效?
、
、
、
、
我在从R向熊猫过渡
的
过程
中
遇到了一些问题,在那里,dplyr包可以很容易地进行分组并执行多个总结。请帮助改进我现有的
Python
熊猫代码,用于多个
聚合
:data =
pd
.DataFrame( {'col1':[1,1,1,1,1,2,2,2,2,2(我将for-loop
groupby
实现重写为
groupby
.agg,性能得到了巨大
的
提高)。在R
中</em
浏览 4
提问于2016-08-13
得票数 55
回答已采纳
1
回答
如何计算熊猫
的
中位数时间?
、
、
、
我有一个数据帧,其中需要以hh: mm: ss格式计算每个用户
的
中位数时间 ? 我
的
代码 file['date'] =
pd
.to_datetime(file['date']) file['diff'] = file.
groupby
(['operation', 'user'])['date'].diff().fillna(
pd
.Timedelta(0)) #calculate th
浏览 25
提问于2021-09-17
得票数 1
回答已采纳
1
回答
是否可以在NamedAgg表达式中使用带空格
的
列名?
、
在使用pandas.NamedAgg
聚合
函数命名
聚合
列时,是否可以创建包含空格和特殊字符
的
名称?典型
的
语法是: pvt = (df.
groupby
(by=[....]) .agg(value=
pd
.NamedAgg(column='col', aggfunc='count'))) 但是,有没有办法创建一个不是有效
的
python
变量名(在本例
中
为value )而类似于
浏览 12
提问于2020-01-17
得票数 4
回答已采纳
1
回答
熊猫群:如何计算占总数
的
百分比?
、
如何计算在
groupby
中
显示总数%
的
列import numpy as npdf=
pd
.DataFrame(np.random.randint(5,8,(10,4)), columns=['a','b','c','d']) g = df.
groupby
('
浏览 2
提问于2017-10-12
得票数 2
回答已采纳
1
回答
每天过滤熊猫数据
、
、
、
、
我有一个以分钟为单位
的
外汇数据框架,长达一年(371635行):01.05188 1.05200 1.05188 1.05200我想要过滤每天
的
数据来得到一个小时
的
范围我怀疑每一步这条线正在寻找数据集中每一行
的</em
浏览 0
提问于2018-11-09
得票数 7
回答已采纳
2
回答
计数pandas数据帧
中
的
非重复值
、
、
我有一个有3列
的
数据帧。我正在尝试为行
中
的
每个组找到
不同
的
聚合
值。 我使用jupyter笔记本来运行这个。还使用了像numpy这样
的
python
库 例如,我
的
原始数据帧'df‘如下: Name Subject Grade1 Tom Sci我按如下方式应用了
groupby
查询: new_df = df.
groupby
(
浏览 37
提问于2019-03-29
得票数 2
回答已采纳
1
回答
在列*和*索引上使用
groupby
和aggregate with pandas
、
、
、
、
1 88 30 3 23 323 1 33 40如果我想按索引上
的
结果分组,并对组应用
聚合
函数,我可以这样做\
Python
\
Python
38\site-packages\pandas\core\
groupby
\generic.py", line 928, in aggregate>>
浏览 6
提问于2020-08-01
得票数 5
3
回答
熊猫-从
聚合
格式到长格式
、
如果我要从长格式转换为分组
聚合
格式,我只需这样做:a 4c 1现在,如果我想恢复<
浏览 4
提问于2014-12-03
得票数 0
回答已采纳
1
回答
使用
Python
获取在dataframe和
groupby
中所选列
的
唯一计数
、
我
的
数据文件如下所示: df=
pd
.DataFrame({'A':['a','a','b','c'], 'B':['x','x','x','x'],'C':['1','2','3','4'], '
浏览 2
提问于2015-09-23
得票数 0
2
回答
如何在Pandas
中
展平
groupby
操作
的
结果?
、
使用Pandas数据帧,有没有一种方法可以扁平化
groupby
操作
的
结果,而不必使用临时数据帧,然后将其合并到原始数据帧
中
?假设我需要创建一个依赖于
聚合
操作
的
"result“列,就像这个场景: import pandas as
pd
df =
pd
.DataFrame({'box': [1,1,1,2,2,3,3,3,3], 'durian', 'pear', 'orange',
浏览 82
提问于2020-05-04
得票数 2
回答已采纳
2
回答
熊猫群在大
的
csv文件上有sum()?
、
我有一个大文件(大约19 to ),我希望在内存中加载它来对某些列执行
聚合
。data =
pd
.read_csv("data_file", delimiter=",")但是,对于大型文件,在读取csv文件时需要使用块大小来限制加载到内存
中
的
行数: import pan
浏览 1
提问于2015-11-05
得票数 11
回答已采纳
1
回答
动态创建自定义
聚合
以与Pandas
groupby
一起使用
、
、
、
我试图动态创建一个lambda函数
的
字典,将其传递给Pandas
中
的
agg()函数,并计算“异常”
的
数量。,通过以下方式进行
聚合
: aggdict = prepareAggDict({"column_a":3500, "column_b":8200}) dailyAgg = df.
groupby
([id_col,Date_col]).agg(aggdict) 但是由于某些原因,
聚合
只应用了column_b
的
浏览 38
提问于2021-05-10
得票数 1
回答已采纳
1
回答
在Pandas中使用
groupby
后
聚合
具有
不同
函数
的
不同
列集合
、
、
、
我希望能够在dataframe
中
传递包含列名
的
列表
的
名称,并在
groupby
不同
的
聚合
函数之后应用到每个集合。因此,以下是一次天真且不成功
的
尝试: import pandas as
pd
variables_to_mean= ['cylinders', 'displacement&
浏览 18
提问于2019-02-07
得票数 2
回答已采纳
1
回答
在
Python
语言中使用选择性列
聚合
dataFrame时添加标头
、
、
我有一个包含三列
的
dataFrame,分别是'Ts_id'、'doc_id'、'doc_type',我发现它上
的
计数仅
聚合
在'doc_id'和'doc_type'上。有没有办法在
聚合
后重命名列或添加
不同
的
标题?下面是这段代码: dfnonreturns =
pd
.DataFrame(GuidedocdetailsNonReturn,columns=['Ts_id
浏览 0
提问于2018-08-23
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
python︱apple开源机器学习框架turicreate中的SFrame——新形态pd.DataFrame
Python按需将表格中的每行复制不同次的方法
深入浅析Elasticsearch中的聚合操作
Python之数据聚合与分组运算
Map和Reduce在Hadoop与Python中有何异同?
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券