腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
Pyspark
转换
:
列名
到
行
、
、
我正在使用
pyspark
,并且想要
转换
这个spark数据框架: +----+-------------------------------+--------------------------编辑:这就是我解决这个问题的方法: from
pyspark
.sql.functions import array, col, explode, struct, lit df =
浏览 12
提问于2019-12-11
得票数 0
2
回答
作为记录数据出现在
Pyspark
数据库中的
列名
、
、
、
我在这里面临的问题是,当用下面的代码执行时,
列名
也被显示为控制台中的记录 .select("*")df1:
pyspark
.sql.dataframe.DataFr
浏览 9
提问于2022-10-21
得票数 0
2
回答
在
pySpark
中按条件分割数据
、
、
、
我想创建两个dataframes,1)只使用True
列名
,2)只使用假
列名
。我最初的想法是创建两个dataframes (因为它们稍后将被附加到一个更大的数据集中),或者我还考虑将适当的
列名
转换
为一个列表,然后将列表名称
转换
为
列名
。我是
pySpark
新手,我想知道如何在不硬编码任何
列名
(我有几百列)的情况下做到这一点,我知道我不能遍历
行
,因为这样做会违背
pySpark
的目的。
浏览 3
提问于2020-05-07
得票数 1
回答已采纳
1
回答
.agg(计数([col列表))
、
、
from
pyspark
.sql import functions as Ffrom
pyspark
.sql.session即使我试着把一列我得到- py4j\java_collections.py",第500
行
,在对象中的元素
转换
中: TypeError:&
浏览 3
提问于2020-02-26
得票数 0
回答已采纳
1
回答
如何将spark dataframe
列名
和行数据
转换
为json数据?
、
我有一个
pyspark
数据帧 spark = SparkSession\ .appName("NPS_TF")\ ], ["Assign", "xs[0]","xs[1]","xs[2]"]) df2.limit(1).show() 如何将部分dataframe
列名
和第一
行
数据<e
浏览 10
提问于2019-02-13
得票数 0
回答已采纳
1
回答
PySpark
-从文本文件创建数据框
、
、
、
、
第一
行
是
列名
,例如"START_TIME","END_TIME","SIZE"..大约100个
列名
。然后从文件中删除除某些特定列之外的所有列。from
pyspark
import SparkContext from
pyspar
浏览 0
提问于2016-12-14
得票数 12
回答已采纳
1
回答
如何使用其他数据create (
PySpark
)创建数据文件?
、
、
我使用的是
PySpark
v1.6.1,我想使用另一种方法创建一个数据文件: 现在正在使用.map(func)使用该函数创建一个RDD (该函数从原始类型中的一
行
进行
转换
,并返回带有新类型的一
行
浏览 0
提问于2017-12-27
得票数 3
回答已采纳
1
回答
PySpark
DataFrame将
行
值
转换
为
列名
、
我有一份如下格式的:我需要把它转化成这样的东西:有什么帮助吗?
浏览 2
提问于2022-04-10
得票数 0
回答已采纳
2
回答
有没有一种方法可以在不读取整个数据集的情况下获得
pyspark
中的dataframe的
列名
?
、
、
、
我在我的HDFS环境中有100M+数据集,比如说huges数据集,它们都围绕huges
行
。我希望只获取每个数据集的
列名
,而不读取整个数据集,因为这样做需要太长时间。那么,在不浪费时间和内存的情况下获得
列名
的最好方法是什么? 谢谢..。
浏览 1
提问于2021-01-05
得票数 0
1
回答
聚合函数Spark
、
、
、
我正在使用Pyskem2.2rn,我的代码由这个函数崩溃,我不明白为什么它会在->上崩溃import
Pyspark
.sql.functions as F t.withColumns('column_name
浏览 2
提问于2022-02-11
得票数 0
1
回答
将元组的RDD
转换
为Dataframe
、
、
、
、
3.6243409329763652),('n', 52.743253562212828),('v', 11.644347760553064)]]'n', 's' 's' 在第二排。因
浏览 3
提问于2017-06-01
得票数 0
回答已采纳
1
回答
与Scala相比,使用groupBy的
Pyspark
聚合非常慢。
、
、
、
我移植了一个Scala代码,它可以简单地聚合到Python中:from utils import notHeader, parse, pprint from
pyspark
浏览 5
提问于2017-01-25
得票数 0
1
回答
[消]电火花数据表
列名
、
、
、
什么是限制火花放电数据的
列名
。我对下面的代码有异议。%livy.
pyspark
它给了..。resolve column name "spatialElementLabel.value" among (lightFixtureID.value, spatialElementLabel.value);'
列名
显然是正确键入的我从熊猫的数据
转换</
浏览 3
提问于2017-06-07
得票数 0
回答已采纳
6
回答
PySpark
下降
行
、
、
如何在
PySpark
中从RDD中删除
行
?特别是第一
行
,因为这往往在我的数据集中包含
列名
。通过仔细阅读API,我似乎找不到一种简单的方法来做到这一点。当然,我可以通过Bash / HDFS来完成这个任务,但我只想知道这是否可以在
PySpark
内部完成。
浏览 5
提问于2014-07-13
得票数 28
回答已采纳
1
回答
在
pyspark
中编写SQL时面临的问题
、
、
、
、
我正在尝试将下面的SQL代码
转换
为
pyspark
。有人能帮帮我吗?table B这里,util、count、procs是
列名
在
pyspark
中编码时,我可以创建一个新的列'col‘,如下所示: df1 = df1.withColumn("col", case condition ,a)
浏览 10
提问于2021-05-25
得票数 0
回答已采纳
1
回答
在
PySpark
中将二维矩阵-数据
转换
为平面表
、
、
、
、
我有一个
PySpark
数据文件,如下所示: a 997 154.5 0.8 ..我想把这个
转换
成一个像这样的平面表:a header2 154.5b header1 0.3等。每个标题
列名
都是唯一的。第一个
列名
是ID。如何在
PySpark
中最有效地
转换
这一点?我可以遍历DataF
浏览 0
提问于2018-10-25
得票数 0
回答已采纳
2
回答
如何使用Java将数据库的
列名
更改为大写
、
、
、
我有一些混合的
列名
,比如sum(TXN_VOL),我想把它们
转换
成大写字母,比如SUM(TXN_VOL)我尝试的是: Dataset<Row编辑 对于Scala和
PySpark</
浏览 1
提问于2019-01-02
得票数 0
回答已采纳
1
回答
Pyspark
数据框架操作的单元测试用例
、
、
、
我已经用python写了一些带有sql上下文的代码,即
pyspark
,通过将csv
转换
为
pyspark
dataframe来对csv执行一些操作(df操作,如预处理、重命名
列名
、创建新列并将其附加到相同的有谁能帮我在
pyspark
的dataframe上写单元测试用例吗?或者给我一些数据帧上的测试用例的来源?
浏览 1
提问于2016-04-14
得票数 3
2
回答
优化
PySpark
与pandas DataFrames之间的
转换
、
、
、
、
我有一个13M
行
的
pyspark
数据帧,我想把它
转换
成pandas数据帧。然后,将根据其他参数以不同的频率(例如1秒、1分钟、10分钟)对数据帧进行重新采样以进行进一步分析。从文献[,]中,我发现使用以下任何一
行
都可以加快
pyspark
到
pandas数据帧之间的
转换
:spar
浏览 11
提问于2021-11-19
得票数 0
3
回答
在
PySpark
中使用列表中的列按多个列分区
、
、
我的问题类似于这个帖子: 但是我使用的是
Pyspark
而不是Scala,我想以列表的形式传递我的列的列表。
浏览 15
提问于2018-03-13
得票数 17
回答已采纳
点击加载更多
相关
资讯
一文读懂PySpark数据框
一文读懂 PySpark 数据框
一个Python大数据处理利器:PySpark入门指南
8行代码实现ui文件到py文件转换
转换PUB格式到PDF
热门
标签
更多标签
云服务器
ICP备案
云直播
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券