腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(956)
视频
沙龙
1
回答
比较
Java
中
的
两个
Spark
Schema
,
无法
将
Seq
<
StructField
>转
换为
List
<
StructField
>
、
、
、
、
问题:我想以DDL格式获取
两个
模式之间
的
公共属性。我有以下工作代码来获取scala
中
模式
的
交集: val diff = df1.
schema
.intersect(df2.
schema
)diff.toStream.foreach(x => sb.append( x.toDDL + ", ")) 但在
将
这段代码转
换为
Java
时,我面临着转换问题: S
浏览 18
提问于2020-07-15
得票数 1
回答已采纳
2
回答
从包含DataFrame
的
行创建Option[T]
的
问题
、
、
我正在
将
一些代码从
Spark
1.6迁移到
Spark
2.1,并努力解决以下问题:import org.apache.
spark
.sql.types.{LongType,
StructField
, StructType} val
schema
= StructType(
Seq
(
StructField
("i", LongType,nullable
sche
浏览 4
提问于2017-06-02
得票数 2
回答已采纳
1
回答
如何
将
Spark
RDD转
换为
Spark
DataFrame
、
我已经和Scala 2.12一起使用过
Spark
3.1.2了。我想在节点之间并行一些键,它们根据接收到
的
键来读取数据。因此,我必须先使用RDD,然后再将其转
换为
Spark
DataFrame。我从Oracle Database
中
的
表
中
读取数据。(rdd,
schema
) } val group_
list
=
Seq</em
浏览 6
提问于2021-09-26
得票数 1
1
回答
将
向量集合转
换为
数据帧时出现架构错误
、
我有一个名为values
的
矢量集合,我正尝试将其转
换为
数据帧 scala.collection.immutable.Vector[(String, Double)] = Vector((1,1.0),<and> (name: String)org.apache.
spark
.sql.types.
StructField
中
描述
的
浏览 9
提问于2019-01-04
得票数 0
1
回答
Spark
在IDE
中
创建数据帧(使用databricks-connect)
、
、
、
、
我正在尝试使用databrick connect在IDE
中
运行我
的
databricks笔记本
中
的
一些代码。我似乎想不出如何创建一个简单
的
数据帧。尝试从头开始创建数据帧: var dataRow =
Seq
((cdpos_df.count(),I_count,D_count,U_count)) (data:
jav
浏览 69
提问于2021-09-14
得票数 0
3
回答
将
RDD转
换为
Dataframe后出现错误:"
java
.lang.String不是int架构
的
有效外部类型“
我试图在不使用case类
的
情况下
将
RDD转
换为
Dataframe。csv文件如下所示:0,158023,L. Messi <br> val
schema
= StructType(
List
(
StructField
(&quo
浏览 0
提问于2019-02-22
得票数 0
1
回答
使用可选值从json导入模式
、
、
、
"someValue", { "k1" : "someOtherValue" }当我试图在模式中指定可选字段时,表
中
没有该字段
的
所有条目都具有所有空值columns: k1 | optKrow2: "someOtherValue&q
浏览 4
提问于2017-12-05
得票数 1
1
回答
无法
使用case类从RDD
中
创建数据
、
、
使用
Spark
2.x,我似乎
无法
使用由case类组成
的
RDD来创建Dataframe。它在
Spark
1.6.x上运行良好,但在2.x上失败,运行时异常如下:前面有一堆从催化剂生成
的
代码。
StructField
(&qu
浏览 1
提问于2016-09-01
得票数 5
回答已采纳
1
回答
星星之火SQL:从周数和年获得月份
、
我有一个带有“周”&“年”列
的
dataframe,需要计算如下所示
的
月份:+----+----++----+----+| 50|2012|
浏览 2
提问于2016-05-30
得票数 1
回答已采纳
1
回答
从scala.collection.immutable.Iterable[org.apache.
spark
.sql.Row]到DataFrame?错误:具有替代项
的
重载方法值createDataFrame
、
、
、
、
我有一些sql.Row对象,我希望在
Spark
1.6.x中将它们转
换为
DataFrameevents: scala.collection.immutable.Iterable[org.apache.
spark
.sql.Row;
StructField
("trackId", IntegerType, true),
StructField
("lo
浏览 0
提问于2017-10-12
得票数 0
1
回答
如何在scala
spark
中
遍历JSON对象
、
、
我有一个输入json文件,它有
两个
对象。当我尝试读取文件时,我使用
schema
获取第一个对象值。以下是我
的
代码{age: 30,id: 01123{age: 25,id: 02354 val
Schema
= StructType(
Seq
(
StructFi
浏览 1
提问于2020-08-21
得票数 0
2
回答
如何映射/转换ApacheSpark2.3.1
中
ArrayType
中
的
每个元素
、
、
、
短版本:如何
将
嵌套数组
中
的
每个条目转
换为
不同
的
内容(例如,结构)?:
StructField
("column_a", ArrayType(StringType), true)val data =
Seq
(
StructField
("column_a", ArrayType(Str
浏览 0
提问于2018-08-10
得票数 4
回答已采纳
4
回答
获取星火数据栏列表
、
、
如何
将
火花数据文件
中
的
所有列名输入到
Seq
变量
中
。string (nullable = true)|-- ID: string (nullable = true) selectColumns:
Seq
[org.apach
浏览 9
提问于2017-10-15
得票数 25
回答已采纳
2
回答
将
StructFields添加到现有架构
、
、
、
所有对象都保存到一个ListBuffer
中
。 // Get first
list
item and initiate
浏览 1
提问于2017-07-04
得票数 0
回答已采纳
1
回答
读取parquet文件时,
无法
解析包含int和double
的
合并方案
、
、
Failed to merge incompatible data types IntegerType and DoubleTypeval
schema
= StructType(
Seq
(new
StructField
("myField", IntegerType)))
浏览 0
提问于2018-12-18
得票数 10
1
回答
将
pyspark数据格式转
换为
嵌套
的
json结构
、
、
、
我试图
将
下面的dataframe转
换为
嵌套
的
json (string)+---+---+-------+------++---+---+--jocelyn","rental") ]
schema
= StructType([
浏览 1
提问于2021-01-07
得票数 2
回答已采纳
1
回答
Spark
read avro
、
val df =
spark
.read.avro(file)尝试手动创建架构,但现在遇到以下问题: val df =
spark</e
浏览 0
提问于2018-06-15
得票数 1
1
回答
将
包含BigInt
的
RDD转
换为
Spark
数据帧
、
、
、
、
嗨,我在
spark
1.6.3
中
工作。我有一个rdd,里面有一些BigInt scala类型。我如何将其转
换为
spark
数据帧?是否可以在创建数据帧之前转换类型?我
的
rdd:我试着创建一个
schema
对象; val <em
浏览 0
提问于2017-10-12
得票数 1
1
回答
在DataFrame中将RDD转
换为
PySpark
、
、
我
无法
将
RDD数据转
换为
pyspark
中
的
Dataframe。
StructField
("ename",StringType(),True), ]) df =
spar
浏览 5
提问于2021-04-02
得票数 0
0
回答
如何在JSON中使用read.
schema
仅指定特定字段:
SPARK
Scala
、
、
、
因此,它需要解析所有需要更长时间
的
数据(4小时,因为我
的
数据是压缩
的
,大小为to )。因此,我想尝试将其读取为textFile,并强制执行模式,以便以后在结果数据框上查询时只获取感兴趣
的
字段。可以给我一些参考,关于如何
将
模式映射到json like input。])org.apache.
spark
.sql.types.StructType <and> (fields:
java
.util.
List
[org.apache.
浏览 0
提问于2016-07-09
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
简化TensorFlow和Spark互操作性的问题:LinkedIn开源Spark-TFRecord
Spark之SparkSQL
Spark SQL DataFrame与RDD交互
Spark机器学习入门实例:大数据集二分类
遇见YI算法之初识Pyspark(二)
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券