腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
用
列表
Pyspark
Dataframe
中
的
值
替换
NA
、
、
、
、
我有一个包含20列
的
spark数据帧。我想将选定列(数字列)
中
的
NA
值
替换
为它们
的
平均值。 我有一个数字列名
的
列表
,以及它们
的
平均值
列表
。我已经编写了以下函数,但我不确定如何将其应用于
Dataframe
NumColNames=['MinTemp','MaxTemp','Rainfall','WindGustSp
浏览 5
提问于2019-10-13
得票数 0
3
回答
用
星火
DataFrame
中
列
的
平均值
替换
列
的
空
值
、
、
Spark
中
是否有函数可以通过忽略null/NaN来计算
DataFrame
中
列
的
平均值?就像在R中一样,我们可以传递一个选项,比如
na
.rm=TRUE。当我在带有NaN
的
列上应用avg()时,我只得到NaN。
浏览 1
提问于2017-09-17
得票数 2
回答已采纳
3
回答
如果满足条件,则用新
值
替换
值
;如果没有满足条件,则用新
值
替换
值
。
、
、
、
、
我使用
的
数据集中,变量
的
缺失
值
是
用
特定
的
数字指定
的
。我试图创建一个
用
空格
替换
这些
值
的
dataframe
,
用
NA
来
替换
它们
的
另一个
dataframe
。对于这个问题,我将重点讨论它们被
NA
替换
的
数据。对于变量,缺失
的
值
是由数字
浏览 2
提问于2020-05-03
得票数 2
回答已采纳
1
回答
PySpark
替换
()函数不使用空
值
替换
整数
、
、
、
、
我想用空
值
替换
整个
dataframe
的
所有0实例(不指定特定
的
列名)。以下是我编写
的
代码:以下是我收到
的
错误: File"/usr/hdp/current/spark2-client/python
浏览 4
提问于2021-10-24
得票数 0
回答已采纳
4
回答
如何使用Java
中
的
spark将数据数据
中
的
特定
值
替换
为空
值
?
、
我正在努力提高Logistic回归算法在Spark中使用Java实现
的
准确性。为此,我试图
用
该列最常见
的
值
替换
列
中
的
空
值
或无效
值
。例如:-a |a1a |a2b |a2c |d |c1 在本例
中
,我将将列"Name“
中
的
所有空
值
替换</
浏览 0
提问于2017-06-21
得票数 27
回答已采纳
2
回答
熊猫与填充物相反(0)
、
、
、
当df.fillna(0)
用
0填充所有
NA
/NaN
值
时,是否有一个函数将所有非-
NA
/NaN
值
替换
为另一个
值
,如1?如果我
的
DataFrame
中
的
值
是可变长度
列表
,那么: 布尔索引(如df[len(df) > 0] = 1 )抛出ValueError:
浏览 4
提问于2015-07-29
得票数 6
回答已采纳
2
回答
熊猫在
DataFrame
中
不使用inplace = True
、
我正在处理来自Kaggle
的
泰坦尼克号数据集,当Pclass为2时,我试图
用
30
替换
NA
值
。我尝试了下面的代码,但是
值
30似乎没有保存在
dataframe
中
。data[data['Pclass']==2].fillna({'Age':30}, inplace = True) 预期
的
结果应该是,Pclass =2
中
的
所有
NA
值
浏览 6
提问于2022-05-01
得票数 0
回答已采纳
3
回答
如何在
PySpark
中用零
替换
句号?
、
、
我试图
用
PySpark
中
的
0
值
替换
原始数据
中
的
句号。 from
pyspark
.sql import functions as F
dataframe
2 =
dataframe
1.withColumn("te
浏览 8
提问于2019-09-01
得票数 1
2
回答
使用
PySpark
移除至少具有1
NA
的
任何行
、
、
我有一个电火花数据,我想删除任何一行至少有一个
NA
。如何对
dataframe
的
所有列执行相同
的
操作?") \values = [("1","2","3"), | 1
浏览 14
提问于2022-10-05
得票数 1
回答已采纳
1
回答
在
pyspark
数据帧中用数字
替换
字符串
、
我刚接触
pyspark
,我想在
pyspark
dataframe
列
中
动态地
用
数字
替换
名称,因为我
的
dataframe
中有超过500,000个名称。如何继续?
浏览 9
提问于2019-07-25
得票数 0
1
回答
如何将
PySpark
中
的
所有列
的
字符串
值
替换
为NULL?
举个例子,我有一个dfdf = sc.parallelize([ row("
NA
", None, 6, 7.0), row(float("Nan")
浏览 9
提问于2017-12-06
得票数 0
回答已采纳
1
回答
迭代地检查数据帧
中
变量
中
的
值
,并返回R
中
相邻变量
的
值
。
、
我试图在R
中
的
dataframe
中
创建一个新变量( Nprice ),Nprice
中
的
值
取决于
dataframe
中
其他向量
列表
中
的
值
。, 7)) 对于每个组件("Comp"),我希望查找cellchangeAug16
的
值
,如果它是
NA
,那么我希望将priceAug16
的
<e
浏览 2
提问于2017-03-28
得票数 2
3
回答
用
其他
dataframe
中
的
值
替换
dataframe
中
的
NA
、
、
对于我
的
R程序,我希望
用
位于另一个
dataframe
的
相同位置
的
值
替换
dataframe
中
的
空
值
。例如:A[1,] <- c(1,
NA
,2,2,4) B<- data.fram
浏览 3
提问于2020-08-10
得票数 3
回答已采纳
1
回答
如果另一个
Dataframe
值
小于0,则
替换
R
Dataframe
中
的
值
、
、
我有两个尺寸相同
的
r数据。我要做
的
是,如果第二个
dataframe
的
值
小于零,则删除第一个
dataframe
的
值
。例如,如果killer_stock
dataframe
的
值
小于0,则rank_stock
中
的
值
将
替换
为
NA
。) stockc <-c('-1','2'
浏览 0
提问于2018-11-29
得票数 2
回答已采纳
1
回答
如何在
PySpark
DataFrame
中
替换
无穷大
、
、
、
、
似乎不支持
替换
无穷大
值
。我尝试了下面的代码,但它不起作用。还是我漏掉了什么?=sqlContext.createDataFrame([(None, None), (1, np.inf), (None, 2)])或者我必须走一条痛苦
的
道路:将
PySpark
DataFrame
转换为
DataFrame
,
替换
无穷大
值
,然后将其转换回
PySpark
DataFrame
。
浏览 7
提问于2015-12-23
得票数 6
回答已采纳
3
回答
在
PySpark
数据
中
删除包含特定
值
的
行
、
、
我有一种火花缭乱
的
数据像:1._6我要删除包含
值
"
NA
“
的
行。在这种情况下,首先和最后一行。如何使用Python和Spark实现这一点?基于注释
的
更新:寻找一个解决方案,删除在多个列
中
任何一个中都具有字符串:
NA
的
行。
浏览 1
提问于2019-02-23
得票数 8
1
回答
在
Pyspark
中将缺少
的
字符串
值
转换为isNull
、
、
、
我对
pyspark
非常陌生,我有一个从csv (在胶水中)加载
的
数据集。有一列code,其中有string和long。db", table_name="data_csv")|-- code: choice| |-- string 似乎
pyspark
将缺少
的
值
视为string。上面的)成为使用isnan时显示
的
实际null
值
。如何将它们转换为“真实”
的
浏览 2
提问于2020-04-30
得票数 0
2
回答
使用list并
替换
pyspark
列
、
假设我有一个
列表
new_id_acc = 6,8,1,2,4,我有像这样
的
PySpark
DataFrame
id_acc | name | 20| XYZ | 34 | RAH | 19 | SPD | 我想用new_id_acc
值
替换
pyspark
列id_acc,我该如何实现并做到这一点我尝试过,发现除了常量值之外,可以使用lit(),但是没
浏览 27
提问于2019-05-14
得票数 1
4
回答
如何在多列上执行udfs -动态
、
、
、
、
我
的
要求是将这30列
中
的
所有"
Na
“
值
转换为"null”。 if x == "
Na
": return "null"udf_B = udf(udf_A, StringTypeDPF_1" udf_B("DPF_1")) df.withColumn(
浏览 4
提问于2018-01-16
得票数 2
回答已采纳
2
回答
使用空字符串
替换
null在编写Spark
dataframe
时
、
、
、
在将火花数据文件写入文件时,是否有方法
用
空字符串
替换
列
中
的
null
值
?
浏览 3
提问于2020-07-29
得票数 4
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券