腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Pyspark
自动
重命名
重复
的
列
、
、
、
、
我想
自动
重命名
df
的
重复
列。norep1: string, num1_1: string, num1_2: bigint, norep2: bigint, num1_3: bigint, norep3: bigint]def f_df_col_renombra_rep(df): from
浏览 1
提问于2018-02-14
得票数 4
回答已采纳
1
回答
从火花数据中选择或删除
重复
列
、
、
、
给定一个星星之火数据,有一个
重复
的
列名(例如。( A)对于不能修改上游或源
的
,如何选择、删除或
重命名
其中
的
一个
列
,以便检索
列
值?df.select('A')向我显示了一个不明确
的
列
错误,filter、drop和withColumnRenamed也是如此。如何选择其中一
列
?
浏览 0
提问于2018-09-06
得票数 2
2
回答
如何使用房间
自动
迁移删除/
重命名
多个
列
、
注意事项:房间
自动
迁移在Beta - 中 @DeleteColumn(tableName = "User", columnName = "phone")但我知道这个错误问
浏览 6
提问于2021-07-26
得票数 10
回答已采纳
1
回答
基于列位置
的
火花
重命名
列
如何在
PySpark
中
重命名
数据文件
的
第三
列
。我想调用
列
索引而不是实际名称。以下是我
的
尝试:Col1 Col2 jfdklajfklfj df.withColumnRenamed([3], 'Row_Count
浏览 1
提问于2020-05-28
得票数 1
回答已采纳
1
回答
运行spark.read.json时在json中找到
重复
列,即使没有
重复
列
、
、
、
在
PySpark
和Synapse数据流中,我遇到了非常奇怪
的
错误。 )这是我所知道
的
堆栈跟踪:
浏览 3
提问于2021-11-25
得票数 0
1
回答
如何
重命名
所有
列
,在
pyspark
中创建dataframe之后,如何根据模式/从csv文件中读取数据类型来转换数据类型
、
在
pyspark
中创建示例数据 from
pyspark
.sql.types import StructField testdata = [("aaaa",1,50.0,"05-APR-2020"), ("bbbb",2,100.0TypeError:字段col4: DateType不能接受
浏览 1
提问于2020-05-04
得票数 0
回答已采纳
1
回答
STreamlit如何实现在每次小部件交互后不重新运行
的
有状态ML应用程序
、
、
我想要实现一个有状态
的
ML应用程序,它不会用一个小部件重新运行每一个无畏
的
动作。除了步骤4
的
默认选择外,当我选择一个新变量时,整个脚本将重新运行。只有我在第四步中与之互动
的
内容,请帮助我。import pandas as pdimport matplotlib.pyplot
浏览 7
提问于2021-11-18
得票数 0
1
回答
DataFrame --如何使用变量进行连接?
、
、
、
、
我有两个数据帧,为了使它们对于每个数据帧都是唯一
的
,我必须更改
列
的
名称,所以稍后我可以知道哪一
列
是哪一
列
。我这样做是为了
重命名
列(firstDf和secondDf是使用createDataFrame函数创建
的
火花DataFrames ):firstDf = f
浏览 3
提问于2016-09-20
得票数 3
回答已采纳
2
回答
在
pyspark
2.3中,如何处理json模式推断后由于大小写不敏感而导致
的
列名不明确?
、
、
在
Pyspark
2.3中,假设我有一个如下所示
的
JSON文档: "key1": { "KEY2": "def"}
pyspark
.sql.utils.AnalysisException: 'Ambiguou
浏览 2
提问于2018-09-21
得票数 0
回答已采纳
2
回答
如何按索引
重命名
PySpark
数据栏?(处理
重复
的
列名)
、
、
、
我有一个问题,我需要动态更新星火数据中
的
列
。def dup_cols(df): for x, xcol in enumerate(df.columns= x: df = df.withColumnsRenamed(xcol, xcol +
浏览 0
提问于2018-12-13
得票数 5
回答已采纳
1
回答
Pyspark
数据框架操作
的
单元测试用例
、
、
、
我已经用python写了一些带有sql上下文
的
代码,即
pyspark
,通过将csv转换为
pyspark
dataframe来对csv执行一些操作(df操作,如预处理、
重命名
列名、创建新
列
并将其附加到相同
的
我没有在数据帧上编写单元测试用例
的
想法。有谁能帮我在
pyspark
的
dataframe上写单元测试用例吗?或者给我一些数据帧上
的
测试用例
的
来源?
浏览 1
提问于2016-04-14
得票数 3
2
回答
DynamicFrames上
的
AWS Glue多
列
重命名
= "COL1")我尝试了几个变体,并基于其他
的
Glue
浏览 2
提问于2018-08-01
得票数 0
1
回答
如何在不
重命名
列
的
情况下计算单行数据框
列
的
平均值、最大值、最小值
、
、
、
如何在不使用
pyspark
重命名
列
的
情况下,从单行数据框
列
中计算同一
列
的
平均值、最大值、最小值 我使用了下面的命令,但它抛出了一个错误 df5=df5.agg(avg(col("Salaray")),
浏览 22
提问于2021-10-29
得票数 0
3
回答
如何有效地批量
重命名
pyspark
中
的
列
?
、
我正尝试在
PySpark
中批量
重命名
我
的
列
,从: 'collect_list(Target_Met_1)[1]' --> 'AB11' 'collect_list(Target_Met_1)[2]现在,我可以使用以下命令手动更改名称: df.withColumnRenamed('collect_list(Target_Met_1)[1]', 'AB11') 但是如果我有500
列
,效率就不高。我知道
重
浏览 99
提问于2019-06-22
得票数 1
回答已采纳
1
回答
向类添加功能
的
最佳方法-
PySpark
、
、
、
、
有一段时间,我在寻找如何将多个
列
一次
重命名
为一个
PySpark
DF,并遇到了如下情况:def rename_sdf(df, mapper={}, **kwargs_mapper,其中通过赋值语句将方法添加到
pyspark
.DataFrame类中。问题是,我正在创建一个Github来存储我
的
所有函数和ETL,我认为如果我能够应用上面显示
的
逻辑,就可以非常容易地创建一个__init__.py模块,在其中实例化我
的
所有功能,
浏览 6
提问于2020-07-09
得票数 1
23
回答
如何在
PySpark
中更改dataframe列名?
、
、
、
、
我来自熊猫背景,习惯于将CSV文件中
的
数据读入dataframe,然后使用简单
的
命令将列名更改为有用
的
内容:但是,在使用
PySpark
创建
的
sqlContext数据文件中,同样
的
方法不起作用。com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt&quo
浏览 12
提问于2015-12-03
得票数 304
回答已采纳
1
回答
如何使用
Pyspark
的
模式从
Pyspark
数据帧创建hive表?
、
我已经使用以下代码创建了数据框: import
pyspark
spark =
pyspark
.sql.SparkSession(sc) data = [('A', 'B', 1), ('A', 'B', 2), ('A', 'C',
浏览 12
提问于2020-06-15
得票数 0
1
回答
自动
执行电子表格转换
、
、
每个月我都会为我
的
工作处理供应商
的
MS Excel电子表格。我必须删除
列
、
重命名
列、重新格式化
列
,然后将生成
的
电子表格通过电子邮件发送给同事。有没有一种方法,在Excel、数字或编程中,使这个极其
重复
的
过程
自动
化? 谢谢,塞吉奥
浏览 2
提问于2010-07-12
得票数 0
3
回答
如何使withColumnRenamed查询泛化
、
、
curentColumnName2','currentColumnName3']它们是包含所有
列
的
我想要检查是否在dataframe中存在
列
'curentColumnName1,如果是,那么将其
重命名
为newColumnName1,如果所有
列
都存在于dataframe中,则需要这样做。如何
浏览 1
提问于2022-08-18
得票数 0
1
回答
统计SPARKSQL中
的
重复
行数
、
、
、
我有一个要求,我需要计算配置单元表
的
SparkSQL中
的
重复
行数。from
pyspark
import SparkContext, SparkConffrom
pyspark
.sql.typesimport *app_name="test" conf = SparkConf().setAppName(app_name)
浏览 3
提问于2018-02-01
得票数 11
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券