腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
具有
多个
聚合
的
Pyspark
Pivot
、
23.0|45.0|67.0|78.0|+---+-----+----+----+----+----+ 其中每个值是price和units
的
平均值我可以只做两个枢轴,由price和units
聚合
而成,如下所示: mydf.groupby('id').
pivot
('day').agg(F.mean('units')).show()和mydf.groupby('id').
pivot
(
浏览 25
提问于2020-04-10
得票数 0
回答已采纳
1
回答
火花矩阵变换
、
、
、
、
让我们假设在
PySpark
中有以下数据:customer1 | product1 | 0.2343customer2 | product3 | 0.3123可以有几个客户产品组合,但每一个组合都是独特
的
。我想以最有效
的
方式存档以下结果:cu
浏览 0
提问于2019-09-16
得票数 1
回答已采纳
1
回答
如何用dataframe子部分中
的
另一列中
的
值替换一个列中
的
值?
、
、
我必须对dataframe
的
"activity“列执行group和
pivot
操作,并用"quantity”列之和填充由
pivot
产生
的
新列。但是,其中一个活动列必须使用“成本”列
的
总和填充。分组和支点之前
的
数据帧:| id | quantity | cost | activityswimming | outdoor | +----+-----
浏览 1
提问于2022-08-01
得票数 0
回答已采纳
1
回答
Pandas
的
MultiIndex操作是否等同于set_index()或un堆栈()?
、
、
、
、
0.3|+---+---------+------+|101| 0.1| 0.2| 0.7|+---+--------+------+-------+ 对于这样
的
操作= df[['morning', 'lunch', 'dinner']]
浏览 2
提问于2020-06-22
得票数 2
回答已采纳
2
回答
不能在不忽略更多aggs
的
情况下嵌套两个以上
的
术语
聚合
吗?
、
我正在使用C#
的
Nest库查询ElasticSearch,以获取
具有
多个
透视
的
图形数据。每个
pivot
都是一个查询上
的
嵌套TermsAggregation,使用一个或两个
pivot
就可以很好地工作。但是,一旦我找到三个轴心,SearchRequest对象就不会生成更多
的
聚合
。,当转换为字符串时,3个或更
多个
透视
的
SearchRequest如下所示(通过nestClient.Serializer.Se
浏览 1
提问于2017-10-19
得票数 0
1
回答
将不同值量转换为
pyspark
中
的
列
、
、
、
我有一个这样
的
数据帧: +--------------------+------------------------+| 1 | 1 | 1 | 但我不认为这样做
的
任何方式,除了非常暴力
的
python方式,我相信将是非常低效
的
。有没有一种使用
pyspark
运算符
浏览 13
提问于2020-10-30
得票数 0
回答已采纳
1
回答
与单独运行相比,
具有
多个
聚合
的
吡火花旋转数据要长/冻结得多。
、
、
我使用
的
是电火花
pivot
函数。aggs只是不同列(如f.sum(f.col(numeric_col))或f.first(f.col(string_col)) )上
的
聚合
函数
的
列表。然而,仅在7.1秒内a就返回了:此外,仅在b上运行
的</
浏览 1
提问于2021-01-28
得票数 1
2
回答
PYSPARKSQL中
的
枢轴
、
、
、
、
df.groupBy("id").
pivot
("week").agg(first("score"))
浏览 2
提问于2017-12-28
得票数 0
回答已采纳
2
回答
Pyspark
:在没有
聚合
的
情况下重塑数据
、
、
我想在没有
聚合
的
情况下,将我
的
数据从4x3修改为2x2。我目前
的
输出如下:vals = [ (0, 0, 140),(1, 1, 21),] 我想要
的
是一个应急表,第二列作为两个新
的
二进制列(value_HIGH_1,value_HIGH_0)和来自count列<em
浏览 1
提问于2018-11-01
得票数 0
回答已采纳
1
回答
如何在
pyspark
中实现不带
聚合
函数
的
数据透视表
、
我在
pyspark
中有一个这样
的
数据帧。
pyspark
dataframe
的
pivot
函数需要
聚合
函数,在我
的
例子中,col_1也不是唯一
的
。
浏览 1
提问于2020-03-21
得票数 0
1
回答
如何使用不同
的
聚合
函数有效地
聚合
同一列?
、
、
、
75]}) id value1 1 503 2 25例如,如何通过考虑同一列上
的
多个
聚合
函数
的
, np.mean, np.sum, max_diff]
pi
浏览 2
提问于2021-03-03
得票数 0
回答已采纳
1
回答
如何在spark.dataframe中对分组数据进行编码?
、
我在spark.dataframe A中有这样
的
数据:Ben 2Ben 3Jerry 2Jane 5James 1Name Action_id=1 Action_id=2 Action_id=3 Action_id=4 Action_idJames
浏览 8
提问于2019-08-07
得票数 1
回答已采纳
1
回答
Databricks: spark dataframe中
的
Python数据透视表
、
任何人都可以给我一些关于数据透视表
的
指导,在python语言中使用spark dataframe,我得到了以下错误:Column is not iterable 有谁知道吗?
浏览 0
提问于2019-10-04
得票数 1
1
回答
PySpark
Dataframe中
的
组合旋转和
聚合
列
、
、
我
的
问题与有关。我有一个名为
PySpark
DataFrame
的
df,如下所示。0.11 | 752019-01-02 | B | 0.08 | 66df.groupBy('date').
pivot
('recipe'
浏览 0
提问于2019-07-24
得票数 0
回答已采纳
2
回答
使用python将两个spark数据帧合并到一个模式中
、
、
、
我有两个不同
的
pyspark
数据帧,需要合并成一个。有一些逻辑需要为合并编码。其中一个数据帧
具有
以下模式:(id,类型,计数),另一个
具有
模式:(id,timestamp,test1,test2,test3) 第一个数据帧是通过sql "group by“查询创建
的
。可以有重复
的
ids,但ids
的
类型将有所不同。并且,对于给定
的
类型,有一个相关
的
计数。 在最终
的
模式(合并后
的
模式)中,类型
浏览 46
提问于2020-01-29
得票数 0
回答已采纳
1
回答
按年旋转并得到所有金额
的
之和。
、
我有这样
的
数据我想要这样
的
输出我怎样才能做到这一点?
浏览 3
提问于2022-10-28
得票数 1
回答已采纳
2
回答
Excel中
的
多枢轴
、
我正在使用Excel,并有一个如下所示
的
枢轴表:Year > Quarter Male Female70% 30% Q4 60% 40% 这将是我所称
的
两行
聚合
是否有一种方法可以有
多个
支点,例如有一个行
聚合
(年份)和两个列
聚合</e
浏览 3
提问于2016-10-19
得票数 1
回答已采纳
1
回答
如何实现数据仓库
的
枢轴
、
我面临以下挑战:我有一个名为hashtags_users_grouped
的
dataframe,它
的
结构如下: 123我想要一个
具有
以下输出
的
dataframe:1 1 3换句话说,与第一个表相同
的
信息,但每个hashtag都有一个列,以了解用户提到每个hashtag
的
次
浏览 1
提问于2021-11-26
得票数 0
回答已采纳
1
回答
PySpark
中
的
避免循环
、
我有一个类似于此
的
PySpark
DataFrame:a | 100 | 1 b | 100 |1 b | 100 | 2 对于每个句点(1, 2, 3),我希望将数据过滤到句点小于或等于该数字
的
位置,然后将每个ID
的
值列之和。有没有更好
的
方法来做到这一点,而不必使用循环?(在实践中,我有数百个课时)。
浏览 0
提问于2019-01-25
得票数 1
回答已采纳
1
回答
将
PySpark
中
的
两个DataFrames组合成矩阵
、
、
、
我在
PySpark
脚本中有2个DataFrames。['ghi', 'jkl']|+----+---------------+ 我希望通过组合上面的两个DataFrame并在关键字和python函数定义
的
标记之间执行一些复杂
的
计算
浏览 2
提问于2019-11-22
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券