腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Pyspark
根据
一列
合并
不同
的
行
6|+----------------+------------+-----+ 如果来自同一项运动,有没有办法将多行计数
的
值结合起来例如,如果Sport =高山滑雪,我会有这样
的
东西: +----------------+-----++----------------+-----+
浏览 10
提问于2021-08-02
得票数 0
回答已采纳
2
回答
在
PySpark
Dataframe中
的
列中
合并
重复
行
、
我在
PySpark
数据框架中有重复
的
行
,我想
根据
一列
中重复
的
条目将所有
行
和sum
合并
成一
行
。20010 Deal 3 Client C 32 121 尝试
PySpark
浏览 5
提问于2022-11-04
得票数 0
回答已采纳
1
回答
C1FlexGrid :检查
合并
单元/动态
合并
、
、
我有一个网格,其中一些
行
正在
根据
公共标识符进行
合并
,这是第
一列
,我必须做以下事情,但我无论如何都做不到 我想看看第
一列
是否
合并
了,那么第二
合并
行应该有一个
不同
的
颜色,就像前面的列在第三列之后,但它没有发生我必须
根据
第
一列
合并
前面的列(5,6,7,8,10,14),但像
合并
第
一列
一样,它没有
合并
前面的列,因为它
的</e
浏览 13
提问于2014-09-25
得票数 0
2
回答
如何在
pyspark
中
合并
重复
的
列?
、
、
我有一个
pyspark
dataframe,其中一些列具有相同
的
名称。我想将具有相同名称
的
所有列
合并
到
一列
中。例如,输入dataframe: ? 我如何在
pyspark
中做到这一点?
浏览 57
提问于2021-06-18
得票数 2
回答已采纳
1
回答
仅
合并
匹配
行
上
的
一列
我有一个电子表格,其中有重复
的
记录(
行
)。通常我每条记录有两
行
,我需要一
行
。除了
一列
之外,各行都是相同
的
。是否有一种方法可以
根据
列A中
的
ID
合并
重复
的
行
,而只
合并
列D 以B列为例,我不想
合并
这
一列
,因为它会提供错误
的
数字,因为D列每行有
不同
的
单词。 数据是当前。
浏览 9
提问于2019-04-18
得票数 0
1
回答
从PostgreSQL中选择大型数据集时出现内存错误
、
、
本地存储到Postgresql中
的
800万
行
稀疏数据。cur=conn.cursor('testCursor')cur.execute("select * from events&quo
浏览 0
提问于2017-05-12
得票数 0
1
回答
在Azure
的
数据工厂中将
不同
数量
的
行
合并
为一
行
、
、
我是Azure Data Factory
的
新手,我在解决这个问题时遇到了问题。我想
根据
第
一列
的
子字符串将
不同
数量
的
行
合并
到一
行
中,我知道我可以使用collect(),但问题是我没有键列。下面是我
的
数据在csv文件中
的
样子DREC12023 ALKBY23DREC23545..。我希望输出是这样
的
浏览 11
提问于2021-08-05
得票数 0
1
回答
如果列在
不同
行中
的
值相等,则
合并
两
行
或多行
、
、
、
、
由于数据很大,我必须使用
pyspark
将
不同
行中
的
dataframe值(列表)组合起来。B| [4, 2, 5, 6]|| D|[11, 12, 15, 16]|我想按列表
合并
num_group,它具有如下相同
的
元素:(索引是一个无意义
的
值或字符串)| num_group| +-----
浏览 3
提问于2017-12-28
得票数 1
1
回答
如何
根据
其他列使用Python在Spark中创建新列?
、
、
、
、
我
的
数据库包含
一列
字符串。我将
根据
其他列
的
一部分创建一个新列。find(word): break 这段代码无法工作,并在collect()上给出了
浏览 6
提问于2022-01-26
得票数 0
回答已采纳
1
回答
如何
根据
行
的
内容拆分
pyspark
数据
、
、
、
、
我想
根据
DataFrame中一
行
的
第一个字符来分割文件。原始数据有
一列
,数据包括输入样例文件(
Pyspark
): 3文件名放在DataFrame
的
column2中,文件
的
内容放置在DataFrame
的
column2中。预期输出(
Pyspark</e
浏览 3
提问于2019-10-10
得票数 1
回答已采纳
1
回答
基于三个匹配列
的
数据融合
、
、
谢谢您
的
帮助,我真的很难
合并
dataframes (我想将两个框架
合并
到下面的条件中),但是它失败了,“意外地导致了
合并
的
dataframes黄色-在图3中高亮显示)。 我想
根据
前两列
合并
。第一排。如果两个帧中
的
第
一列
和第二列匹配在一起。->然后
合并
成一排。2)。如果两个框架中
的
第
一列
或第二列不匹配,但另
一列
匹配->创建一个新
行
。3)
浏览 6
提问于2022-05-01
得票数 0
1
回答
查询-将列数据
合并
为
行
、
我希望
根据
另
一列
(名称)
合并
不同
行中
的
数据(name + value/s)。见下面的例子:A/b广告B= bdab广告这是可能
的
谷歌工作表查询吗?
浏览 4
提问于2022-02-22
得票数 0
回答已采纳
1
回答
根据
某些条件添加两
行
或更多行
、
、
、
、
我有一个这样
的
数据帧:我想要
的
输出如下: 目标是
根据
名称删除重复项,并将类别列数据
合并
到
一列
中
浏览 0
提问于2021-09-06
得票数 0
2
回答
合并
具有
不同
列值
的
pyspark
数据帧
行
、
、
、
我希望
合并
两个
不同
列值
的
dataframe
行
。union时Alex Smith 19Alex Smith 21 firstName lastName age Alex Smi
浏览 3
提问于2022-10-30
得票数 -1
回答已采纳
1
回答
approxCountDsitinct与approx_count_distinct在spark函数上
的
差异
、
、
有人能说出
pyspark
.sql.functions.approxCountDistinct (我知道它已经过时了)和
pyspark
.sql.functions.approx_count_distinct之间
的
区别吗?我在一个项目中使用过这两个版本,并且经历过
不同
的
值
浏览 59
提问于2020-09-02
得票数 2
回答已采纳
1
回答
从星星之火数据中
的
列表中提取值,而不转换为熊猫
、
、
我非常绿色
的
火花,所以我把它转换成一个熊猫DataFrame,然后使用地图功能,我提取所需
的
元素。问题是,数据是巨大
的
,因此这种方法是不可扩展
的
。让我花时间
的
是toPandas()命令。是否有从每一
行
访问列表中
的
值
的
选项? 谢谢!
浏览 5
提问于2021-12-09
得票数 1
回答已采纳
1
回答
如何将两
行
或多行
合并
为一
行
,并使用逗号分隔符连接
一列
输入图像描述hereI想要创建一个视图它有一些列,所有的行都有相同
的
结果除了
一列
,如何
合并
或组合
的
所有行在一
行
,但
一列
不同
的
值我想要显示它们在
一列
,并用逗号拆分值。如果有办法通过查询显示给我看。ret_OperationalUnitFeaturs operation ON salaried`enter code here`.Guid = operation.SalariedGuid WHERE Deleted = 0 结果包括3<em
浏览 32
提问于2019-04-17
得票数 0
回答已采纳
3
回答
pyspark
:获取dataframe
的
每
一列
中
的
唯一项
、
我有一个包含一百万行和560列
的
spark数据帧。我需要找到dataframe
的
每
一列
中唯一项
的
计数。我已经编写了以下代码来实现这一点,但它被卡住了,并且执行起来花费了太多
的
时间: var=count_unique_items.append(data.select(var).distinct().rdd.map(lambda r:r[0]).count()) cat_col包含所有分类变量<e
浏览 9
提问于2016-11-29
得票数 0
1
回答
合并
第
一列
中重复项
的
倒数第二列
如果A
的
第
一列
重复,我想
合并
A
的
第2列到末尾
的
列A = [2 3 1; 2 6 8]B{1}=2 3 1 6 8B = [2 3 1 6 8;
行
顺序无关紧要。我
的
第一个计划是然后
根据
第
一列
将A划分为各种矩阵(即
不同<
浏览 0
提问于2013-07-31
得票数 1
2
回答
pyspark
是否支持窗口函数(例如first、last、lag、lead)?
、
pyspark
是否支持窗口函数(例如first, last, lag, lead)? 例如,如何按
一列
分组并按另
一列
排序,然后按SparkSQL或数据框选择每个组
的
第一
行
(这就像窗口函数一样)?我发现
pyspark
.sql.functions类包含聚合函数first和last,但它们不能用于groupBy类。
浏览 2
提问于2015-03-24
得票数 3
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券