腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
pandas:如何使用列名进行分组和
聚合
?
我有一个
数据
帧
,看起来像这样 col1 col2 col3 col4 .... col90 row2row1000 1001 1002 1003 1004 .... 1090 我希望将这些
列
一次分组为3
列
,并取每行的平均值。我将按以下步骤进行: 我生成一个列
表列
表 [['col1','col2','col3], ['col4',
浏览 24
提问于2019-02-19
得票数 0
回答已采纳
1
回答
从
列
表列
创建
聚合
数据
帧
、
我有一个使用Pygithub
从
Github存储库中提取的问题
数据
帧
。它目前的结构如下-data = {'assignees': ['n/a', ['p1', 'p2'], ['p5
浏览 3
提问于2019-10-29
得票数 3
回答已采纳
1
回答
基于条件的rbind ()
、
、
、
我有一堆基于用户输入
创建
不同
数据
帧
(A)的if语句。在某些情况下,一些
数据
帧
将是空的,所以可能(A)是空的,但是(D)有信息。我正在尝试
创建
一个条件rbind(),其中只有在
数据
帧
不是空的情况下,它才会组合行。cond_a <- nrow(a) !编辑:退一步,更好地解释:我有一个
数据
框架,我通过一个
列
将它划分为6个不同
浏览 3
提问于2017-11-18
得票数 1
回答已采纳
10
回答
基于另一个变量保持顺序的collect_list
、
、
我试图使用现有
列
集上的groupby
聚合
来在Pyspark中
创建
一个新的列
表列
。下面提供了一个示例输入
数据
框架:id | date | value1 |2014-'date'],ascending = True) grouped_df = ordered_df.groupby("id").agg(F.collect_list("value
浏览 8
提问于2017-10-05
得票数 82
回答已采纳
1
回答
列
表列
在R语言中是一个概念吗?
列
表列
数据
结构是否是R语言中的一个概念? 列
表列
在
数据
帧
的定义中是隐式的:
数据
帧
是等长向量的命名列表。列表是向量,所以使用列表作为
数据
框架的
列
是合法的。但是,基本R不便于
创建
列
表列
,data.frame()将列表视为<e
浏览 2
提问于2020-06-03
得票数 0
1
回答
搜索由collect_list
聚合
创建
的单元数组中的
列
值
我使用的是一个py spark
数据
框架和一个使用collect_list的
聚合
列
,我必须在该集合列
表列
中搜索另一个
数据
帧
列
值,我
创建
了一个UDF,如下所示,但它始终失败为阶段故障。上面的步骤还包含使用这两个
数据
帧
的联接。样本输入
数据
:id page_ids (collect_list) 12 ['1001','1001','1002&
浏览 1
提问于2017-08-01
得票数 0
1
回答
基于
列
和
列
的列表连接pandas
数据
框
、
、
我正在尝试连接基于多
列
的两个
数据
框。然而,其中一个条件不是直接的,因为一个
数据
帧
中的一
列
存在于另一个
数据
帧
中的列
表列
中。如下所示 df_a: ? df_b: ? 我想根据节点、通道、值来连接两个
数据
帧
。但是,值在
列
尾部的列表中 我试图
从
df_a
创建
一个字典,将节点和通道作为关键字,但这不是唯一的,我将值作为关键字添加,但随后我无法查找该值。
浏览 12
提问于2020-04-17
得票数 0
2
回答
从
BIRT报告中删除
列
我有一个包含10
列
的BIRT Excel报告。我有一个查询,它执行并带来所有10
列
的
数据
。我尝试更改查询,但无法动态设置select参数。 在Query或BIRT中有没有一种方法可以根据输入条件删除一些
列
?
浏览 15
提问于2016-08-03
得票数 1
1
回答
dataframe
列
是否需要具有与datetime索引相同数量的元素?
、
、
、
、
我知道pandas
数据
帧
可以有NaN值。我的意思是,特别是当我从不同大小的列
表列
表中
创建
数据
帧
时。行数少于最长列的
列
是否会自动使用NaNs填充?如果我使用datetime索引,这会有什么影响?
浏览 7
提问于2020-07-14
得票数 1
1
回答
如何将字符列强制到列
表列
我正在尝试绑定
数据
帧
行。我在
聚合
后生成一些带有列
表列
的
数据
帧
,但有些是字符。我找不到办法把他们绑起来。我试着使用as.list()转换字符
列
,但这不起作用。
浏览 5
提问于2017-08-16
得票数 0
回答已采纳
1
回答
如何在
聚合
后将pandas
数据
帧
转换为单索引?
、
、
我一直在玩pandas
数据
帧
中的
聚合
。','e'], 'c':[4,1,3,4,5,1,3,2]}) 我必须对batch
列
进行
聚合
,对
列
a使用mean,对
列
c使用min。) 问题是,我希望最终的
数据
帧
具有与原始
数据
帧
相同的
列
,只是在每一
列
中显示
聚合
值的细微差别。上
浏览 21
提问于2020-09-05
得票数 0
回答已采纳
1
回答
在列
表列
工作流中使用dplyr::select()
、
、
我有一个大
数据
帧
的列表,我想对每个
帧
进行子集,只保留某些
列
。我想要的
列
的名称包含在每个
数据
帧
特有的字符向量中。真正的应用程序将包括24个大型
数据
集的列表,以及24个唯一字符向量的列表。下面是这个
数据
结构的一个很小的例子来说明
浏览 0
提问于2020-10-23
得票数 2
回答已采纳
2
回答
J抄Aggrgate报告
数据
未保存在.csv文件中
我配置了一个针对线程组的“J抄
聚合
报告”。当我在GUI模式下运行相同的时候,我可以看到gui中的“
聚合
报表”表/
列
,它看起来也不错。但是,如果我查看保存的stattics1.csv文件,它不包含
列
文件中的相同
数据
,就像所有所需的
聚合
报告
表列
数据
都不在保存的
聚合
文件中一样(例如,平均值、中位数、最大值、最小、吞吐量等
列
)。你能帮我一下吗,我怎样才能在CSV文件中得到“
聚合
表”<
浏览 9
提问于2017-05-25
得票数 0
3
回答
基于列表值
聚合
DataFrame
、
、
、
., 'wordN'] 我有带值的
数据
帧
: +--------------+----------+-----------+ | keywords | impressions | clicks请建议我如何
创建
一个特定的,
聚合
的
数据
帧
与
列
值
从
列表和印象和点击的总和,如果
从
列表中的词在关键字
列
中满足。 我曾尝试使用iterrows()方法遍历dataframe,但在这种情况下不起作用。
浏览 28
提问于2020-07-10
得票数 0
回答已采纳
0
回答
Dataframe中的Pandas中的
聚合
列
、
、
、
我使用groupby()和reset_index()函数使用来自Pandas Dataframe的
数据
创建
具有
聚合
值的
列
:我想将所有这些
聚合</em
浏览 5
提问于2017-06-13
得票数 0
回答已采纳
2
回答
如何将Python Dataframe转换为列
表列
表?
、
、
我有一个尺寸为21392x1972的Python
数据
帧
。我想要完成的是将
数据
帧
转换为列
表列
表,这样我的
数据
帧
的第一
列
是长列表中的第一个列表,
数据
帧
的第二
列
是具有一个长列表的第二个列表,依此类推。我尝试使用tolist()将
数据
帧
转换为列
表列
表。现在发生的情况是,我的
数据
帧
的每一行都变成了长列表中的一个列表。但是
浏览 21
提问于2019-01-18
得票数 0
回答已采纳
1
回答
如何编写
从
两个不同大小的
数据
帧
中提取参数的矢量化函数
、
、
、
我正在组装一个新的格式化
数据
帧
,它
聚合
了来自不同
数据
帧
的
数据
。我需要在这个新的
数据
帧
中
创建
一个
列
,用于过滤和
聚合
来自辅助
数据
帧
的
数据
。为此,我编写了一个函数,该函数根据新的
列
标题和新
数据
帧
中另一
列
的每一行的值过滤第二个
数据
帧
。然后,该函数对
浏览 22
提问于2021-11-10
得票数 0
2
回答
如何使用pandas绘制类似命名的
列
?
、
、
、
现在只有两个文件,但在几周内,我将使用数百个具有相同
数据
变量的csv文件。我使用for循环读取文件,并将
数据
帧
附加到单个列表中,然后使用此for循环来区分一些名称:我的问题是,如何使用条形图比较文件之间的变量?如何调用所有温度
列
在条形图中对它们进行比较?<code>A1</code>
浏览 21
提问于2021-03-13
得票数 1
回答已采纳
1
回答
Apache Spark多个
聚合
、
、
例如,我在Scala中使用Apache spark对
数据
帧
中的多个
列
运行
聚合
selectcolumn2, sum(1) as count from df group by column2 实际的
聚合
比sum(1)复杂得多,但它超出了要点。上面的例子这样的查询字符串是为我想要
聚合
的每个变量编译的,我通过Spark sql上下文执行每个字符串,以
创建
代表相关<
浏览 1
提问于2015-10-30
得票数 0
1
回答
为什么%>% unnest()产生的行数是R的两倍
.)), tidied = map(model, tidy)) 我在输出
数据
帧
中得到了所需的行数(22,匹配不同级别的'event')。但是我想要“取消嵌套”tided
列
,这样它们就是fitted.models中的附加
列
。~Flow, data = .)), tidied = map(model, tidy)) %>% unnest(tidied)
列
被解包,但每个事件列出两次(现在的总行数为44)。我错过了什么?我的
数据
帧
: df<-s
浏览 57
提问于2021-08-16
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券