腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
处理
pyspark
dataframe
中
的
空
值
、
、
、
我有一些数据
的
pyspark
dataframe
,我想要substring列
的
一些数据,该列也包含一些null
值
。|| something|+--------------+ 我只想从Name列
中
删除Asia, US, Europ 下面是我已经尝试过
的
代码Name.like("Europ%"),fun_europ(col('Name')))
浏览 68
提问于2019-10-17
得票数 2
回答已采纳
2
回答
列
的
值
为null,并在中进行交换。
、
、
、
、
我正在使用
pyspark
==2.3.1。我用熊猫对数据进行了数据预
处理
,现在我想把我
的
预
处理
功能转换成熊猫
的
火花放电。但是,当使用
pyspark
读取数据CSV文件时,许多值将变为
空
列,而该列实际上有一些
值
。如果我试图对这个
dataframe
执行任何操作,那么它将与其他列交换列
的
值
。我也尝试过不同版本
的
火花放电。谢谢 列"property_typ
浏览 5
提问于2022-02-16
得票数 0
回答已采纳
2
回答
如何在
PySpark
中
获得数据类型为时间戳
的
列
的
null/nan计数?
、
、
、
我有一个名为 createdtime
的
列,其数据类型为时间戳,我希望找到创建时间为
空
或
空
或nan
的
行数。from
pyspark
.sql.functions import col,isnan,when,count df_Columns=["
浏览 5
提问于2022-06-26
得票数 0
2
回答
在
Pyspark
中将任意数量
的
列合并为Array类型
的
新列
、
我有一个
pyspark
dataframe
,它包含N个包含整数
的
列。某些字段也可能为
空
。f为前缀
的
列组合成一个新列
中
的
pyspark
数组。features_filtered = features.select(F.concat(* features.columns[1:]).alias('combined')) 它返回null (我假设是由于初始
dataframe
中
的
null)
浏览 67
提问于2020-06-18
得票数 1
回答已采纳
1
回答
pyspark
中
的
to_json包含
空
值
,但我需要
空
值
作为
空
、
、
、
、
我正在使用
pyspark
中
的
to_json将
dataframe
中
的
结构列转换为json列,但是在json
中
忽略了少数结构字段
中
的
空
值
,我不希望这些
空
值
被忽略。
浏览 6
提问于2020-10-14
得票数 0
2
回答
在
PySpark
中转换面向
值
的
JSON
、
、
、
对于我正在进行
的
项目,我需要将API
中
的
JSON输出读入星火
DataFrame
,以便进一步
处理
数据湖存储。但是,JSON并不仅仅是我习惯使用
的
常规JSON。我想将下面的JSON转换成一个星火
DataFrame
,这样它就可以用于Delta
的
处理
。有人知道如何有效地将其转换为
DataFrame
吗?value": "Foo" { "name"
浏览 8
提问于2022-02-28
得票数 1
回答已采纳
2
回答
如何在
pyspark
dataframe
中
返回空
值
的
行?
、
、
我正在尝试从
pyspark
dataframe
中
获取
空
值
的
行。在pandas
中
,我可以在数据帧上使用isnull()来实现这一点:但在
PySpark
的
情况下,当我运行以下命令时,它显示Attributeerror:AttributeError:'
DataFrame
‘对象没有属性'is
浏览 25
提问于2018-11-27
得票数 5
2
回答
如何创建
空
的
考拉df
、
我正在尝试使用以下命令创建
空
的
考拉
DataFrame
但是我得到了以下错误我也尝试了执行命令,但发现了类似的错误 df = ks.
DataFrame
(columns=['col1
浏览 3
提问于2020-08-24
得票数 0
1
回答
PYSPARK
:-在不丢失null
值
的
情况下分解
dataframe
中
的
数组:“
DataFrame
”对象没有属性“_get_object_id”
、
、
、
调用下面的对象时出错是在不丢失
空
值
的
情况下分解
dataframe
中
的
数组,但在调用列时我得到错误,说对象没有属性‘_ code.This _ object _id’。from
pyspark
.sql import SparkSessionfrom
pyspark
.sql import Row from
pyspark
.sql.typ
浏览 2
提问于2018-07-05
得票数 2
1
回答
如何将所有的日期格式转换为日期列
的
时间戳?
、
、
、
我使用
的
是
PySpark
版本3.0.1。我正在将csv文件读取为具有2个日期列
的
PySpark
数据帧。但是,当我尝试打印模式时,两列都被填充为字符串类型。 ? ? 上面附加
的
屏幕截图是
Dataframe
和
Dataframe
模式。 如何使用
pyspark
将date列
中
的
行
值
转换为时间戳格式?我已经尝试了很多东西,但所有的代码都需要当前
的
格式,但如何转换为正确
的<
浏览 16
提问于2020-12-30
得票数 2
3
回答
将模式数据类型JSON混合到
PySpark
DataFrame
、
、
我需要将JSON
的
列表转换为
pySpark
DataFrames。JSON都有相同
的
架构。问题是JSON
中
dicts
的
值
条目有不同
的
数据类型。如果我使用df = spark.createDataFrame(json_list)从jsons
中
创建我
的
DataFrame
,因为他无法正确地推断模式,所以
pyspark
“删除”了一些数据。
PySpark
决定complex-field
浏览 23
提问于2022-03-28
得票数 0
回答已采纳
1
回答
在
PySpark
中将字符串转换为双倍时获得空
值
、
、
、
我试图将列LOW
的
字符串
值
转换为双倍,但在
dataframe
中
获取
空
值
。df3 = df2.withColumn("LOW",df2["LOW"].cast(DoubleType())) df3.printSchema
浏览 2
提问于2022-06-23
得票数 0
回答已采纳
1
回答
pyspark
.sql.functions -计数以考虑
空
值
:
、
我试图让
pyspark
.sql.functions.count()函数或
pyspark
.sql.functions.count_distinct()函数在计算列
中
不同元素
的
数量时考虑null
值
。accounts| null|+---+------+-----------+------+ 现在,如果我运行以下代码来计算每个列
中
不同
值
的
数量从我
的
研究来看,这似乎与coun
浏览 12
提问于2022-06-07
得票数 0
1
回答
减少方法是否需要初始化程序?
、
、
、
、
我试图将任意数量
的
PySpark
数据添加到一起。下面的union_all函数尝试这样做:from
pyspark
.sql import
DataFrame
下面的线程覆盖相同
的
TypeError,但适用于不同
的
情况(在一系列整数上使用lambda函数): 从这一讨论
中
,解决方案是为reduce函数提供一个初始化器在我
的</e
浏览 2
提问于2020-12-18
得票数 0
回答已采纳
1
回答
使用来自另一个数据帧
的
条目过滤一个
pyspark
数据帧
、
、
我有两个数据帧,其中一个来自必须过滤Category
的
地方,另一个来自它所做
的
条件过滤。
Dataframe
1:哪个有条件使用上面的
dataframe
_1,我必须从满足
dataframe
_1
中
给定条件
的
浏览 0
提问于2021-09-06
得票数 0
2
回答
Dataframe
空
检查
pyspark
我正在尝试使用下面的代码检查
Pyspark
中
的
dataframe
是否为
空
。我检查了我
的
对象是否真的是使用类型(Df)
的
dd,以及它是否是类'
pyspark
.sql.
dataframe
.
Dataframe
‘
浏览 207
提问于2021-09-17
得票数 0
回答已采纳
2
回答
如何删除星火表列
中
的
空白
、
、
、
、
我想从特定列(Purch_location)
中
的
所有
值
中
删除空格。我使用
的
是spark表,而不是
dataframe
或SQL表(但如果需要,我可以使用
dataframe
或SQL表)。下面是我
的
星火表
的
生成方式:cols = dataset.columns+----------+----TORONTO | 4| 0|
浏览 6
提问于2017-12-03
得票数 2
2
回答
用不同
的
列合并两个星火数据格式,以获得所有列
、
、
AUS null brand2 450 230 我需要我
的
结果数据brand2 450 230因此,我想要
的
df应该包含来自这两个数据
的
所有列,我还需要所有行
中
的
Date_part --这是我尝试过<em
浏览 3
提问于2021-08-19
得票数 0
回答已采纳
0
回答
区分
dataframe
列
中
的
空
值
和
空
值
(
pyspark
)
、
我想知道是否有任何方法或东西可以帮助我区分真正
的
空
值
和
空
值
。据我所知,
dataframe
将
空
值
视为null。 非常感谢。
浏览 9
提问于2018-07-12
得票数 0
回答已采纳
1
回答
pyspark
.sql.utils.AnalysisException: Parquet数据源不支持
空
数据类型
、
、
、
、
我试图在
PySpark
中
的
dataframe
PySpark
中
添加一个列。我试过
的
密码:df1 = df1.withColumn("empty_column", F.lit(None)) 但我知道这个错误:
pyspark
.sql.utils.AnalysisException: Parquet数据源不支持
空
数据类型。
浏览 23
提问于2022-10-18
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Java:如何更优雅的处理空值?
Java:如何更优雅的处理空值?
DataFrame的数据处理
Python数据处理技巧:如何将数据列表中的空值补0
PHP去除数组中的空值元素
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券