腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在
Spark
dataframe
(
scala
)中
保存
映射
值
时
出错
-
预期
列
,
实际
映射
[
int
,
string
]
、
、
、
我
在
Mapint中有键值对,
string
。我需要使用
spark
dataframe
将该
值
保存
在Hive表
中
。但是我得到了错误- Expected column, actual Map[
int
,
string
] 代码: val dbValuePairs = Array(2019,10) val dbkey = dbValuePairs.map(x => x).zipWithIndex.map(t => (t._2, t._1)
浏览 6
提问于2020-10-11
得票数 0
回答已采纳
1
回答
DataFrame
na()填充方法和不明确引用的问题
、
我使用的是
Spark
1.3.1,其中连接两个数据帧会重复连接的
列
。我在外部连接两个数据帧,希望将结果数据帧发送到na().fill()方法,以便根据
列
的数据类型将空
值
转换为已知
值
。我是否只需要确
保存
在一组惟一的列名,而不管我应用na().fill()方法的
dataFrame
中
的表别名是什么?给定:
scala
> val df1 = sqlContext.jsonFile("people.json").as(
浏览 4
提问于2016-02-28
得票数 3
1
回答
Pyspark添加类型字符串的空文字
映射
、
类似于,我想向我的
DataFrame
添加一个
列
,它只包含一个空
映射
。然而,如果我使用该问题的建议答案,则地图的类型是<null,null>,与在那里发布的答案不同。,
string
>地图。我可以
在
Scala
中
这样做:
spark
.range(1).withColumn("test", typedLit我<e
浏览 3
提问于2021-12-09
得票数 3
回答已采纳
1
回答
spark
.sql.functions.typedLit支持Map[
String
,任意]吗?
、
、
、
我有一个Map[
String
,
String
]类型的
映射
,我想在另一个Map[
String
, Any]类型的map2
中
追加它。稍后,这个map2将作为一个
列
添加到
dataframe
中
。当我尝试使用map2作为
列
添加
spark
.sql.functions.typedLit
时
,它失败时会
出错
: Unsupported literal type class
scala
.
浏览 6
提问于2022-01-06
得票数 1
2
回答
数据库Azure广播变量不可串行化
、
、
这只是为了乱搞,所以这个例子有点做作,但是我无法
在
RDD
映射
调用
中
得到一个
值
,除非它是一个静态常量值。下面是一个使用
int
的简单示例,我广播了它,然后尝试并在RDD
映射
中使用。字段的简单可序列化的单例对象,然后
在
RDD
映射
中尝试使用该对象。],然后尝试
在
RDD
映射
中使用该元素。正如您所看到的,这指向了RDD
映射
值
不可序列化的问题。我看不出这个问题,我认为<em
浏览 0
提问于2018-04-26
得票数 1
回答已采纳
2
回答
为什么$不能处理
String
类型的
值
(并且只直接处理字符串文本)?
、
、
" val Date = "Date"} 然后,我想按
列
对
浏览 2
提问于2018-01-11
得票数 2
回答已采纳
1
回答
Spark
HiveContext获取与配置单元客户端选择相同的格式
、
当配置单元表有像
映射
或数组这样的
值
时
,如果你
在
配置单元客户端选择它,它们会显示为JSON,例如:{"a":1,"b":1}或[1,2,2]。
在
Spark
中选择这些对象
时
,它们是
DataFrame
中
的贴图/数组对象。当我使用
Spark
的HiveContext
时
,我想使用与Hive客户端相同的格式。 我该怎么做呢?
浏览 1
提问于2018-07-20
得票数 0
1
回答
Spark
DataFrame
ArrayType或MapType用于检查
列
中
的
值
、
、
、
、
我有一个,其中一
列
是is列表。例如,我想获取其中包含特定ID的行数。但是,要使用
映射
,我需要使用自定义udf而不是内置(
scala
)函数array_contains进行筛选。MapType,我可以做到:from
浏览 1
提问于2018-10-30
得票数 2
回答已采纳
3
回答
为什么下面这行代码
在
spark
中
失败了,我该如何修复它?
、
=> if(i % 2 == 0) Some(i) else null)).toDF()java.lang.ClassCastException: org.apache.
spark
.sql.types.IntegerType$ cannot be cast to org.apache.
spark
.sql.types.StructType at org.apache.
spark
.sql.SQLContext.createDataFrame(SQLContext.
scala
:41
浏览 0
提问于2019-05-06
得票数 0
1
回答
Spark
Dataframe
-编码器
、
、
、
我是
Scala
和
Spark
的新手。 我正在尝试使用编码器从
Spark
中
读取一个文件,然后将其转换为java/
scala
对象。 读取文件的第一步就是使用as应用模式和编码。然后,我使用该dataset/
dataframe
执行一个简单的
映射
操作,但是如果我尝试在生成的dataset/
dataframe
上打印模式,它不会打印任何
列
。此外,当我第一次读取文件
时
,我没有
映射
Per
浏览 10
提问于2020-08-18
得票数 0
1
回答
使用case类和列名别名使用反射的
Spark
Dataframe
模式定义
、
、
、
、
我的
Spark
脚本遇到了一个小问题。基本上,我有原始数据,
在
分组和计数之后进行聚合,等等,我希望将输出
保存
为特定的JSON格式。编辑:当我从源
dataframe
中选择列名有别名的Array[org.apache.
spark
.sql.Column]数据
时
,
在
试图将行
映射
到case类
时
使用列名(
实际
上是索引("Anna"), Result("James&q
浏览 1
提问于2016-12-20
得票数 3
2
回答
如何在Java
中
实现以下
scala
代码片段
、
、
我正在实现一段代码,用于将多个
列
动态添加到行
中
具有空
值
的
Dataframe
中
val encoder = RowEncoder.apply(getSchema(df, words= schema.add(wor
浏览 1
提问于2019-04-03
得票数 0
1
回答
Kudu兼容性的火花数据铸造柱
、
、
、
我试图通过Kudu将Oracle DB
中
的表复制到具有相同结构的Impala表
中
。当代码试图将Oracle NUMBER
映射
到Kudu数据类型
时
,我会收到一个错误。如何更改星火
DataFrame
的数据类型,使其与Kudu兼容?我希望
Spark
+Kudu能自动
映射
所有数据,只需复制数据即可。相反,Kudu抱怨说它不能
映射
DecimalType(38,0)。我想指定“名为SOME_COL的第1
列
(
在
NUMBER
中
浏览 3
提问于2019-05-15
得票数 0
回答已采纳
1
回答
Spark
如果使用DataFrameNaFunctions ()创建
映射
,则来自RDD.collectAsMap的替换函数无法工作。
、
、
在
DataFrameNaFunctions
中
,我使用replace函数将数据格式
中
的
列
的
值
替换为Map
中
的
列
。但是,当使用RDD.collectAsMap()将数据转换为Map
时
,由于它不是不可变的
映射
,所以它不能工作], replacement: <
浏览 4
提问于2021-02-24
得票数 1
回答已采纳
1
回答
将StringType
列
添加到现有的
DataFrame
中
,然后应用默认
值
、
、
、
(更重要的是,),这个问题也仅限于向现有的
dataframe
中
添加一个新
列
,而我需要添加一个
列
以及数据中所有现有行的
值
。因此,我希望向现有的
DataFrame
添加一
列
,然后将该新
列
的初始(“默认
值
”)
值
应用到所有行。x| y||true|not true|现在,我想在jsonDF
中
添加一个新字段,
在
创建
浏览 4
提问于2016-10-10
得票数 7
回答已采纳
1
回答
在
Spark
中
,根据
映射
表,有没有办法将字符串数组转换为相应的整数数组
、
、
在
Spark
中
,根据
映射
表(
String
-> Integer),有没有办法将字符串数组转换为相应的整数数组?例如:
在
Spark
中
,有5亿个数组, Array
String
1 : ['TOM','White','Black'] Array
String
2 : ['BCD','TTTT','Blac
浏览 25
提问于2019-09-02
得票数 1
4
回答
如何将
DataFrame
映射
列
转换为结构
列
?
、
、
、
、
假设我们有一个
DataFrame
,其列为map类型。-----------+// +--------------------+// +---+---+
浏览 0
提问于2020-06-05
得票数 1
回答已采纳
2
回答
不使用UDF从
dataframe
访问
scala
映射
、
、
、
、
我有一个
Spark
(版本1.6)
Dataframe
,我想添加一个包含在
Scala
中
的
值
的
列
,这是我的简化代码:valdf2 = df.withColumn("newVal", map(col("key"))) 此代码不工作,显然我收到以下错误,因为
映射
在接收
列
时</em
浏览 2
提问于2018-05-18
得票数 2
回答已采纳
1
回答
使用现有
列
使用
Scala
添加新
列
、
嗨,我想在
DataFrame
的每一行
中
添加使用现有
列
的新
列
,我
在
Scala
中
尝试这样做.df是包含可变
列
数的
dataframe
,只能在运行时决定。导入
spark
.implicits._支持基本类型(
Int
、
String
等)和Product (case类),以便在以后的版本
中
添加其他类型的序列化支持。方法
映射
的参数不足:(隐含证据$7: org.a
浏览 2
提问于2017-10-09
得票数 1
2
回答
Spark
数据帧分解函数
、
谁能解释一下为什么在有元素集合的
dataframe
字段分解后会使用case Row,Seq[Row]。另外,您能解释一下为什么asInstanceOf需要从分解字段
中
获取值吗?employee.map(employee => employee(1).asInstanceOf[
String
], employee(2).asInst
浏览 2
提问于2016-08-24
得票数 2
点击加载更多
相关
资讯
遇见YI算法之初识Pyspark(二)
Spark之SparkSQL
教程:Apache Spark SQL入门及实践指南!
第四范式OpenMLDB: 拓展Spark源码实现高性能Join
Spark SQL DataFrame与RDD交互
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券