腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
使用
Spark
将
列名
附
加到
列
值
、
、
、
我在逗号分隔的文件中有数据,我已经将其加载到
spark
数据框中:数据如下: 1 2 3 7 8 9 A_1 B_2 C_3 --------------[[ A_1 , B_2 , C_3],[A_4 , B_5 , C_6]] 然后在上述数据集上
使用
pyspark运行FP增长算法。
浏览 8
提问于2019-08-12
得票数 1
回答已采纳
3
回答
如何在SPARKR DataFrame中的
列
的每个
值
上应用函数?
、
我下载了
SPARK
1.4并设置了RStudio来
使用
SPARKR库。但是,我想知道如何
将
函数应用于分布式DataFrame的
列
中的每个
值
,有人可以帮助我吗?其目的是
将
"_hello“附
加到
DF的
列名
的每个
值
上 DF <- read.df(sqlContext, "TV_Flattened_2.csv", source = "com.databricks.
spark
.csv
浏览 0
提问于2015-08-12
得票数 4
1
回答
如何在pyspark中通过删除
列
中的字符自动批量重命名
、
、
、
当我键入
spark
_df.columns时,输出是 ['id', ...
浏览 12
提问于2021-09-01
得票数 0
回答已采纳
2
回答
星星之火中的重复
列名
读为csv
、
我读了csv文件,它有一个重复的
列
。重复的
列名
是NU_CPTE。星星之火试图通过添加0,7
列
数来重命名它。|CD_EVT_FINANCIER|TYP_MVT_ELTR|DT_OPERN_CLI|LI_MVT_ELTR| MT_OPERN_FINC|FLSENS|NU_CPTE7 SparkSessi
浏览 0
提问于2019-06-04
得票数 2
2
回答
为什么$不能处理String类型的
值
(并且只直接处理字符串文本)?
、
、
" val Date = "Date"} 然后,我想按
列
对我如何
将
$和ColumnNames.JobSeekerID结合在一起来完成这一任务?
浏览 2
提问于2018-01-11
得票数 2
回答已采纳
1
回答
在不更改
列名
的情况下创建PySpark数据框
、
、
、
我
使用
下面的CTAS命令
使用
SparkSQL创建表。FROM TBL1 在那之后,我正在
使用
下面的PySpark代码读取新创建的位置(TBL2)下面的文件。但是,下面的data frame仅
使用
lowercase中的所有
列名
创建。df =
spark
.read.format('ORC') \ .option('header',True) \
浏览 12
提问于2019-12-23
得票数 1
回答已采纳
1
回答
将
cassandra行RDD转换为元组数组
、
、
我尝试从cassandra表中读取数据并将
值
存储在数组中。我的RDD如下所示如何
将
这些
值
存储到没有
列名
的数组中?
浏览 0
提问于2015-11-06
得票数 0
1
回答
动态构建
Spark
filter查询
、
我在一个映射中有多个条目(
列名
,
值
)。现在我想过滤一个有
列名
的数据集,这个
列名
是作为键的映射,这个
值
定义了数据集的特定
列名
应该具有的
值
。例如,数据集具有
列
(a,b,c),而map具有条目{(a,1),(b,2)}
使用
java在
spark
中实现这一点的方法是什么?
浏览 1
提问于2017-03-27
得票数 0
1
回答
如何
使用
Spark
从mariadb读取数据
、
、
、
、
我需要
使用
从MariaDB读取一个表。import org.apache.
spark
.sql.Row;import static org.apache.
spark
.sql.functions.col=
浏览 1
提问于2018-10-09
得票数 1
1
回答
N
列
m行的动态数据帧
、
示例数据帧:import
spark
.implicits._ (1, "ABC"), (3, "GHIJ")someDF: org.apache.
spark
.sql.DataFrame-----+ |id |
浏览 6
提问于2020-06-04
得票数 0
回答已采纳
1
回答
使用
具有相同
列名
(不同数据)的表连接数据集
、
、
我希望加入多个具有相同名称的
列
的多个数据集,同时具有不同的数据。这可以重命名dataset
列
,同时将其转换为dataframe。但是,在
使用
数据集时,是否可以
使用
重命名或
将
前缀设置为
列名
。Dataset<Row> uct =
spark
.read().jdbc(jdbcUrl, "uct", connectionProperties); Dataset<Row> si =
spark
.readACTIVE
浏览 0
提问于2018-01-19
得票数 0
回答已采纳
1
回答
在df.toPandas().to_csv('mycsv.csv')之后,数据在重新读取时会被混淆
、
、
我
使用
此代码成功地
将
数据导出到磁盘上的csv。result_25.toPandas().to_csv('mycsv.csv')rr =
spark
.read.csv('mycsv.csv',
浏览 3
提问于2018-10-01
得票数 2
回答已采纳
1
回答
spark
JDBC
列
大小
、
spark
JDBC
列
大小:
spark
.read.jdbc(myDBconnectionSTring、scheam.table、connectionProperties) 来检索
列名
和类型,但我需要varchar
列
的大小。在java JDBC数据库元数据中,我可以获得
列名
、类型和大小。有没有可能
使用
spark
?谢谢
浏览 1
提问于2018-04-01
得票数 0
1
回答
添加一个新
列
来激发数组列表中的数据
、
我试图添加一个新
列
来激发数据框架,如下所示:我正在尝试
将
这个ArrayString作为新
列
添
加到
dataframe中,并尝试对新
列
执行线程“主”org.apache.
spark
.sql.AnalysisException中的异常:无法解析给定的输入列'a||b||c||d||e‘: 预期的输出应该是一个以newcolum作为
列名
的dat
浏览 3
提问于2020-04-21
得票数 1
回答已采纳
3
回答
火花放电数据栏:蜂箱
列
、
、
closeprice string 以下
Spark
代码读取csv文件并尝试
将
记录插入到Hive表中:lines = sc.textFile('file:///<File Location>') rows在TickerId( Hive表中的第1
列
)<em
浏览 0
提问于2018-04-25
得票数 2
回答已采纳
1
回答
apache-
spark
partitionBy:从目录布局中删除
列名
、
hour") .save("s3a://path/") /**
浏览 1
提问于2020-05-15
得票数 1
1
回答
如何
使用
Scala在
Spark
中创建仅包含
列名
和数据类型的新空
列
、
与在RDBMS中添加新
列
一样,不需要在
列
中填充数据,但需要提供
列名
和数据类型。我想在
Spark
dataframe中做同样的事情,但不一定在Schema中指定,我希望新的
列
可以以特别的方式创建 val dfWithNewColumn = df.withColumn("new_col", IntgerType) 重点就是提供类型而不是
Spark
推理。但是我看不到任何解决方案,除了在Schema中进行更改或者
将
默认
值
设置为新
列
浏览 28
提问于2020-07-02
得票数 0
回答已采纳
1
回答
AWS胶-不知道如何
将
NullType保存为红移
、
、
、
我有一个带有空单元格的文本文件和一个接受空
值
的表。当我运行胶水作业时,它会失败,例外情况是“不知道如何
将
NullType保存为REDSHIFT”。getResolvedOptions(sys.argv, ['TempDir','JOB_NAME']) glueContext = GlueContext(sc)job = Job(glueContext) job.init(ar
浏览 4
提问于2017-11-28
得票数 5
1
回答
DataFrame:
将
列名
附
加到
行数据
、
、
我正在寻找一种
将
列名
附
加到
数据帧行数据的方法。
列
的数量有时会有所不同。value_bar| +---+-------------------------+ import org.apache.
spark
.sql._ val concatColNamesWithElems = udf { seq: Seq[Row] =&
浏览 2
提问于2017-01-30
得票数 0
2
回答
火花scala -如何根据
列
列表计算多
列
的md5
、
我有一个包含
列名
的列表。我需要连接这些
列
,然后创建和md5并附
加到
数据格式中。我有fname,lname,address的桌子。我得到的数据应该看起来像。fname,lname,address和md5(concat_ws(",",fname, lname))import org.apache.
spark
.sql.functions._ import org.apache.
spark
.sql.expressions.W
浏览 13
提问于2022-10-06
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券