腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
替换
Pyspark
Dataframe
中
列
中
的
空
值
、
、
、
我需要
替换
Spark
dataframe
中
列
中
存在
的
空
值
。下面是我尝试过
的
代码 df=df.na.fill(0,Seq('c_amount')).show() 但是它抛出了一个错误NameError: name 'Seq' is not defined 下面是我
的
表格
浏览 144
提问于2020-07-02
得票数 0
回答已采纳
1
回答
如何删除
pyspark
中
的
常量
列
,而不是具有空
值
和一个其他
值
的
列
?
、
、
例如:How to automatically drop constant columns in
pyspark
?但我发现,没有一个答案解决了这个问题,即countDistinct()不将
空
值
视为不同
的
值
。因此,只有两个结果null和none NULL
值
的
列
也将被删除。一个丑陋
的
解决方案是将spark
dataframe
中
的
所有null
值
替换
为您
浏览 23
提问于2021-04-01
得票数 1
回答已采纳
1
回答
如何根据另一个数据填充
空
、
我有两个
列
dataframe
和一个
列
包含一些
空
,例如。df1 s.t来填写df1
中
的
空
。我首先从df2创建一个查找字典,然后使用df1上
的
apply来填充
空
值
。但是我并不确定在
pyspark
中使用什么函数,我看到
的
大多数
替换
null都是基于简单
的
条件,例如,将所有的
空
值
填充为某个
列
的<
浏览 2
提问于2018-03-14
得票数 1
回答已采纳
1
回答
pyspark
中
的
to_json包含
空
值
,但我需要
空
值
作为
空
、
、
、
、
我正在使用
pyspark
中
的
to_json将
dataframe
中
的
结构
列
转换为json
列
,但是在json
中
忽略了少数结构字段
中
的
空
值
,我不希望这些
空
值
被忽略。
浏览 6
提问于2020-10-14
得票数 0
2
回答
如何在
PySpark
中
获得数据类型为时间戳
的
列
的
null/nan计数?
、
、
、
我有一个名为 createdtime
的
列
,其数据类型为时间戳,我希望找到创建时间为
空
或
空
或nan
的
行数。from
pyspark
.sql.functions import col,isnan,when,count df_Columns=["
浏览 5
提问于2022-06-26
得票数 0
3
回答
用星火
DataFrame
中
列
的
平均值
替换
列
的
空
值
、
、
Spark
中
是否有函数可以通过忽略null/NaN来计算
DataFrame
中
列
的
平均值?就像在R中一样,我们可以传递一个选项,比如na.rm=TRUE。当我在带有NaN
的
列上应用avg()时,我只得到NaN。
浏览 1
提问于2017-09-17
得票数 2
回答已采纳
2
回答
用旧日期填充
空
日期
值
、
、
、
问题:下面的代码无法在date
列
中将
空
日期
值
替换
为12/31/1900。我在这里可能做错了什么,我们如何解决这个问题?
Dataframe
df是从数据文件中加载
的
,其
列
Order_date具有MM/dd/yyyy格式
的
值
。我正在将这个数据文件导入到Azure SQL Db
的
一个SQL表
中
,该表具有同名Order_date
的
对应列。下面的代码成
浏览 9
提问于2022-06-12
得票数 0
回答已采纳
3
回答
如何在
PySpark
中用零
替换
句号?
、
、
我试图用
PySpark
中
的
0
值
替换
原始数据
中
的
句号。 from
pyspark
.sql import functions as F
dataframe
2 =
dataframe
1.withColumn("test_col&qu
浏览 8
提问于2019-09-01
得票数 1
2
回答
如何在
pyspark
dataframe
中
返回空
值
的
行?
、
、
我正在尝试从
pyspark
dataframe
中
获取
空
值
的
行。在pandas
中
,我可以在数据帧上使用isnull()来实现这一点:但在
PySpark
的
情况下,当我运行以下命令时,它显示Attributeerror:AttributeError:'
DataFrame
‘对象没有属性'is
浏览 25
提问于2018-11-27
得票数 5
6
回答
Pyspark
:通过搜索字典
替换
列
中
的
值
、
、
、
、
我是
PySpark
的
新手。deviceDict = {'Tablet':'Mobile','Phon
浏览 5
提问于2017-05-15
得票数 23
回答已采纳
1
回答
如何将所有的日期格式转换为日期
列
的
时间戳?
、
、
、
我使用
的
是
PySpark
版本3.0.1。我正在将csv文件读取为具有2个日期
列
的
PySpark
数据帧。但是,当我尝试打印模式时,两
列
都被填充为字符串类型。 ? ? 上面附加
的
屏幕截图是
Dataframe
和
Dataframe
模式。 如何使用
pyspark
将date
列
中
的
行
值
转换为时间戳格式?我已经尝试了很多东西,但所有的代码都需要当前
浏览 16
提问于2020-12-30
得票数 2
1
回答
在
pyspark
数据帧中用数字
替换
字符串
、
我刚接触
pyspark
,我想在
pyspark
dataframe
列
中
动态地用数字
替换
名称,因为我
的
dataframe
中有超过500,000个名称。如何继续?
浏览 9
提问于2019-07-25
得票数 0
3
回答
如何在
Pyspark
中
替换
dataframe
的
所有空
值
、
、
我在
pyspark
中有一个超过300
列
的
数据框架。在这些
列
中
,有一些
列
的
值
为null。_2null null125 124and so on 当我想对column_1求和时,我得到
的
结果是一个
空
值
现在,我想用空格
替换
数据框所有
列
中
的<
浏览 1
提问于2017-02-18
得票数 56
回答已采纳
2
回答
pySpark
替换
行子集上
的
空
值
、
、
我有一个
pySpark
dataframe
,其中有我想要
替换
的
空
值
,但是要
替换
的
值
对于不同
的
组是不同
的
。我
的
数据看起来是这样
的
(appologies,我没有办法通过它作为文本):对于组A,我希望用-999
替换
空
值
;对于组B,我想用0
替换
空
值
。有更
浏览 5
提问于2022-11-16
得票数 3
1
回答
在
pyspark
中
,将
值
随机更改为
空
值
的
最有效方法是什么?
、
、
尝试弄清楚如何用
空
值
随机
替换
Pyspark
中
的
特定
列
。: | A | B || 1 | 2 || 5 | 6 || 9 | 10 ||----|------| | 1
浏览 29
提问于2020-09-18
得票数 2
回答已采纳
2
回答
如何创建
空
的
考拉df
、
我正在尝试使用以下命令创建
空
的
考拉
DataFrame
但是我得到了以下错误我也尝试了执行命令,但发现了类似的错误 df = ks.
DataFrame
(columns=['col1
浏览 3
提问于2020-08-24
得票数 0
1
回答
pyspark
.sql.functions -计数以考虑
空
值
:
、
我试图让
pyspark
.sql.functions.count()函数或
pyspark
.sql.functions.count_distinct()函数在计算
列
中
不同元素
的
数量时考虑null
值
。accounts| null|+---+------+-----------+------+ 现在,如果我运行以下代码来计算每个
列
中
不同
值
的
数量从我
的
浏览 12
提问于2022-06-07
得票数 0
2
回答
替换
pyspark
dataframe
中
的
空
值
的
问题
、
、
、
我在一些
PySpark
数据帧中用0
替换
空
值
时遇到问题。df.fillna({
浏览 0
提问于2020-01-09
得票数 0
2
回答
多类分类
的
RandomForestClassifier SPACK2.x
、
、
、
、
我试图使用随机森林进行多类分类,使用spark 2.1.1我有一个包含多个字符串类型
列
的
dataframe
。我是通过将StringIndexers与VectorAssembler链接起来来创建管道
的
,最后是用标签转换器连接RandomForestClassifier。我已经用distinct().count()检查了我
的
所有
列
,以确保我没有太多
的
类别,等等。经过一些调试后,我了解到每当我开始对某些<
浏览 1
提问于2018-02-12
得票数 1
回答已采纳
1
回答
PYSPARK
:-在不丢失null
值
的
情况下分解
dataframe
中
的
数组:“
DataFrame
”对象没有属性“_get_object_id”
、
、
、
调用下面的对象时出错是在不丢失
空
值
的
情况下分解
dataframe
中
的
数组,但在调用
列
时我得到错误,说对象没有属性‘_ code.This _ object _id’。需要帮助,在其他方式调用
列
,可以工作。from
pyspark
.sql import SparkSessionfrom
pyspark
.sql im
浏览 2
提问于2018-07-05
得票数 2
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券