腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Pyspark
根据
条件
创建
新
列
python
、
pyspark
你好,我对
pyspark
完全是个新手,我不知道该怎么做。我使用以下命令读取
pyspark
dataframe中的csv文件 spark = SparkSession.builder \1 A3 C 我还有另一个名为ids.txt的txt文件,它只是一个ids列表 1 2 我的任务是
根据
行中的id是否出现在ids.txt中
浏览 30
提问于2021-03-20
得票数 0
1
回答
用复变函数更新
列
json
、
apache-spark
、
dataframe
、
hive
、
pyspark
是否可以使用一个复杂的函数更新hiveContext数据
列
? 我有一个包含许多
列
的dataframe,其中2
列
称为时间戳和数据。我需要从数据中的JSON字符串中检索时间戳,如果数据中的时间戳满足某些
条件
,则需要更新时间戳
列
。我知道该数据格式是不可变的,但是可以以某种方式构建一个
新
的dataframe,保留旧的dataframe的所有
列
,但更新时间戳
列
?
浏览 7
提问于2016-05-10
得票数 1
回答已采纳
1
回答
基于其他
列
更新
列
的
Pyspark
行
apache-spark
、
pyspark
我有一个data frame在
pyspark
,如下所示。+---+----++---+----+| 2| Tim|| 4| sam|现在,我向df添加了一个
新
列
null|| 3| Jim| null|+---+----+----------+ 现在,我想
根据
一个
条件
更新我试图写下面的
条件
浏览 1
提问于2018-05-02
得票数 0
回答已采纳
2
回答
Pyspark
基于
新
条件
创建
新
类别
列
python
、
apache-spark
、
pyspark
、
apache-spark-sql
我
根据
上面的数据分享了期望的输出; Year Month Client Value Target 2019 1 1 5 3
浏览 15
提问于2021-01-28
得票数 0
回答已采纳
5
回答
更新spark中的dataframe
列
python
、
dataframe
、
apache-spark
、
pyspark
、
apache-spark-sql
查看
新
的spark API,还不清楚是否有可能修改DataFrame
列
。from
pyspark
.sql import functions as F df = df.withColumn('new_co
浏览 12
提问于2015-03-17
得票数 95
回答已采纳
1
回答
将列有
条件
地添加到数据帧中
python
、
apache-spark
、
dataframe
、
pyspark
、
multiple-columns
我在
PySpark
中有一个数据帧。我想有
条件
地在数据框架中添加一
列
。 如果数据帧没有
列
,那么添加一个带有null值的
列
。如果
列
存在,则不执行任何操作,并返回与
新
数据帧相同的数据帧。如何在
PySpark
中传递
条件
语句
浏览 6
提问于2017-01-20
得票数 0
回答已采纳
1
回答
根据
条件
创建
新
列
r
、
dataframe
、
if-statement
、
recode
Spain","Spain","Germany","Germany","Germany","Germany","Germany","Germany","Germany","Germany")) 现在,我想
创建
一个包含德国各州信息的
新
专栏如果这三个变量状态中至少有一个是德国状态,则在
新
变量中指定它。data.frame("GE_State&quo
浏览 1
提问于2021-03-31
得票数 1
回答已采纳
2
回答
根据
条件
创建
新
列
r
、
dplyr
、
data.table
我有下面的数据格式> df1 s123 3 s1009 s1004现在,我希望将
新
列
创建
为
浏览 0
提问于2018-06-13
得票数 0
回答已采纳
4
回答
根据
条件
创建
新
列
python
、
pandas
、
dataframe
我有一个dataframe,需要
创建
一个
新
列
,它是price和metric(在此之前计算的int)的产物。
浏览 12
提问于2021-12-17
得票数 4
1
回答
在
pyspark
中
根据
复杂
条件
创建
列
python
、
apache-spark
、
pyspark
我正在将Tableau中的一系列操作“翻译”成
pyspark
脚本。有一
列
我在复制时遇到了很大的麻烦,这里是代码的Tableu版本: min( IF[COLUMN_A] > 0 THEN [COLUMN_B] ELSE 9999= 0 THEN [COLUMN_H] ELSE 99999 END) ) 可以在
pyspark
中使用when和otherwise函数
创建
该代码的一个版本吗?我在努力,但我似乎解决不了这个问题...
浏览 19
提问于2021-07-15
得票数 1
回答已采纳
1
回答
如何基于动态
条件
在
PySpark
中
创建
新
列
apache-spark
、
pyspark
我需要在
PySpark
Dataframe中
创建
一个
新
列
。但是,
创建
这个
新
列
的
条件
是动态的。'update_date', ) 第二个带expr()的代码不是
创建
新
列
浏览 7
提问于2022-06-17
得票数 0
回答已采纳
1
回答
PySpark
:基于其他
列
中的空值
创建
新
列
pyspark
、
apache-spark-sql
、
etl
我正在进行一个
PySpark
转换,以便
根据
另一个
列
中的空值
创建
一个
新
列
。下面是示例输入数据: 这是预期的输出数据:
浏览 2
提问于2022-09-07
得票数 -2
2
回答
根据
变量和
列
条件
创建
变量-
pyspark
python
、
apache-spark
、
pyspark
我正在尝试基于一个简单的变量ModelType和一个df变量model
创建
一个
新
变量。_veh', F.when((ModelType == 'FRSG') &(df["model"].isin(MDL_CD)), df["ford_cd"])) 但是由于变量ModelType不是一个
列
,
浏览 20
提问于2021-03-25
得票数 0
1
回答
迭代
Pyspark
dataframe的
列
,并
根据
条件
填充
新
列
pyspark
、
apache-spark-sql
我有一个需求,那就是在
PySpark
数据帧中有一堆电子邮件、姓名和其他客户信息。我的所有电子邮件字段都被屏蔽了,只有一个字段除外,我想在我生成的
新
列
中获取该字段的名称。df.withColumn("is_base", F.when(df[name].like("%*%"), None).otherwise(name)) 我知道上面的代码覆盖了我正在
创建
的新字段
浏览 9
提问于2019-11-23
得票数 0
1
回答
Pyspark
使用一条when语句更新两
列
?
python
、
pyspark
因此,我在
PySpark
中使用df.Withcolumn()来
创建
列
,并使用F.when()来指定何时应该更新该
列
的
条件
。df = df.withColumn('ab', F.when(df['text']=="0", 1).otherwise(0)) 基本上,如果符合
条件
,我会将
列
更新为“1”。现在,如果相同的
条件
匹配,我想要更新同一df中的另一
列
(例如,df['
浏览 3
提问于2016-10-19
得票数 0
2
回答
根据
多
列
条件
创建
新
列
python
、
pandas
、
if-statement
我想做的是:如果df'col1‘是NaN,那么
新
列
使用df'col2’值。 如果这两
列
都是NaN,那么
新
列
应该使用新字符串。
浏览 7
提问于2020-06-08
得票数 1
回答已采纳
1
回答
Pyspark
-处理异常并在
pyspark
数据帧中引发RuntimeError
apache-spark
、
pyspark
、
spark-dataframe
、
pyspark-sql
、
apache-spark-1.6
我有一个dataframe,我正在尝试基于现有
列
的值
创建
一个
新
列
: F.when(dfg['list'].isin(["A","isin(["A","B","C","D",'E','F'])==False,lit('unknown category
浏览 14
提问于2018-02-01
得票数 0
3
回答
根据
几个
条件
创建
新
列
r
、
data-manipulation
、
recode
我想
根据
施加在多个列上的一些
条件
创建
一个
新
列
。y=c(0,0,0,0,0), z=c(1,1,0,0,0)) x y z2 0 0 14 0 0 01 1 0 1 13 1 0 0 1 4 0
浏览 13
提问于2020-12-03
得票数 0
回答已采纳
1
回答
星星之火:
创建
具有两个布尔
条件
的
新
列
apache-spark
、
pyspark
、
apache-spark-sql
、
pyspark-sql
我想
根据
两个布尔
条件
对我的数据进行变异,并使用按位和操作。%>% mutate(newVariable = ifelse(variable1 == "value1" & variable2 == "value2, variable3, NULL)import
pyspark
.sql.functions as func
浏览 0
提问于2016-10-06
得票数 1
回答已采纳
1
回答
如何
根据
其他
列
使用Python在Spark中
创建
新
列
?
python
、
pandas
、
dataframe
、
pyspark
、
apache-spark-sql
我的数据库包含一
列
字符串。我将
根据
其他
列
的一部分
创建
一个
新
列
。然后,我对
列
"content“进行迭代,提取要插入
新
列
的单词: column=[] column.append(word) return p
浏览 6
提问于2022-01-26
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券