腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5877)
视频
沙龙
1
回答
Spark
scala
-
获取
数据
集
列
并转
换为
Seq
、
、
、
我有一个
数据
集
case class MyDS ( id: Int, name: String ) 我希望在不使用collect的情况下
获取
序列中的所有名称。有没有更好的方法可以不用collect来做这件事 下面是我运行的代码,它可以编译,但由于内存问题而出错 ds.collect().map(x => x.name) 我是
Scala
的新手,因此一些人可能会认为这个问题很愚蠢
浏览 98
提问于2019-06-27
得票数 0
2
回答
如何将带有小数的
spark
DataFrame转
换为
具有相同精度的BigDecimal的
数据
集
?
、
、
、
如何创建具有给定精度的BigDecimal的
spark
数据
集
?请参见
spark
shell中的以下示例。您将看到,我可以创建具有所需BigDecimal精度的DataFrame,但无法将其转
换为
Dataset。= StructType(
Seq
(StructField("dec", DecimalType(38, 0))))
scala
> val highPrecisionDf =
spark
.createDataFrameor
浏览 73
提问于2019-11-14
得票数 2
回答已采纳
4
回答
获取
星火
数据
栏列表
、
、
如何将火花
数据
文件中的所有列名输入到
Seq
变量中。输入
数据
与模式 val dataset1 =
Seq
(("66", "a", "4"), ("67", "a", "0"), ("70", "b", "4"), ("71", "d", "4")).toDF: string (nullab
浏览 9
提问于2017-10-15
得票数 25
回答已采纳
1
回答
如何在
Spark
/
Scala
中隐式工作
、
下面是一个示例火花代码,它将
Seq
转
换为
Datasetval s =
Seq
(1, 2, 3, 4)
Scala
Seq
没有toDS方法,它来自于
Spark
。
数据
集
是如何在这里创建的? 编辑:我确实看过其他答案,但没有看到一个例子,这将解释如何在s.toDS中使用隐式。我参考了注释中的示例回答。
浏览 0
提问于2017-09-16
得票数 3
回答已采纳
1
回答
Array[String]的
Scala
级联列为单个Array[String]
、
、
、
我有一个带有id - (Int)和tokens - (array<string>)
列
的
Spark
(
Scala
):0,["a","b","c"]...假设我能够通过SparkSession检索
数据
并转
换为
case类:
获取</
浏览 0
提问于2018-12-12
得票数 0
回答已采纳
1
回答
如何将选定的专栏写到卡夫卡主题?
、
、
、
、
.start(); 提供错误: at org.apache.
spark
.sql.kafka010.KafkaWriter$$anonfun$6.apply(KafkaWriter.
scala
:71) at org.apache.<e
浏览 6
提问于2019-11-25
得票数 1
回答已采纳
1
回答
火花读取带有请求参数的JSON
、
、
、
要使用
spark
.read.json阅读,我没有发现任何可以提供请求参数的内容。我们还能用它吗?通常,我只使用scalaj-http和play-json库使用
Scala
读取JSON,如下所示: .postData(body.toString()) 我的要求是,我不能使用这两个库,必须使用
scala
和<
浏览 2
提问于2019-12-02
得票数 1
回答已采纳
1
回答
在
spark
scala
中强制转
换为
decima
、
我有像下面这样的文本格式的输入
数据
。我需要在
spark
Scala
中将其转
换为
Decimal。请帮我看一下cast(DecimalType)语句。
浏览 1
提问于2020-06-02
得票数 0
1
回答
N
列
m行的动态
数据
帧
、
从json(动态模式)读取
数据
,并将其加载到dataframe。示例
数据
帧:import
spark
.implicits._ (1, "ABC")ABC|| 3| GHIJ|要求:
列
数和名称可以是任何值。我想在循环中读取行,以逐个<
浏览 6
提问于2020-06-04
得票数 0
回答已采纳
1
回答
从
scala
中的其他两个
数据
集
的特定
列
创建新的
数据
集
、
、
我有下面两个不同模式的
数据
集
。-> dataset1我想用下面的模式创建另一个
数据
集
:即schema3
数据
集
包含来自模式2
数据
集
的第一
列
-c和来自模式1<em
浏览 9
提问于2020-05-08
得票数 0
回答已采纳
1
回答
Spark
如果使用DataFrameNaFunctions ()创建映射,则来自RDD.collectAsMap的替换函数无法工作。
、
、
在DataFrameNaFunctions中,我使用replace函数将
数据
格式中的
列
的值替
换为
Map中的
列
。当使用RDD.collect()将
数据
转
换为
Map时,.toMap(如下面所示)可以很好地工作,我将其称为方法1。= [col1: int, col2: string ... 13 more fi
浏览 4
提问于2021-02-24
得票数 1
回答已采纳
1
回答
无法将RDD转
换为
序列
、
我希望
获取
列
的所有元素,并将它们转
换为
Scala
Seq
。rawData.map(x => x(0)).toSeqError:(114, 40) value toSeq is not a member of org.apache.
spark
.rdd.RDD如何将其转
换为
Seq
浏览 3
提问于2016-07-12
得票数 1
回答已采纳
1
回答
Spark
HiveContext
获取
与配置单元客户端选择相同的格式
、
在
Spark
中选择这些对象时,它们是DataFrame中的贴图/数组对象。当我使用
Spark
的HiveContext时,我想使用与Hive客户端相同的格式。 我该怎么做呢?
浏览 1
提问于2018-07-20
得票数 0
1
回答
如何将字符串数组改为双精度数组?
、
、
我这样做如下所示: rdd. r.getDouble(4), r.getAs(_).toDouble(70).toArray,我收到以下错误: <console>:22: error: missing parameter type f
浏览 0
提问于2017-06-28
得票数 1
2
回答
Spark
DataFrame对
数据
集
为空
、
从MS SQL
数据
库导入
数据
时,可能会出现空值。在
Spark
中,DataFrames能够处理空值。但是,当我尝试将DataFrame转
换为
强类型Dataset时,收到编码器错误。._No Encoder found for Any - field
浏览 2
提问于2017-03-31
得票数 0
1
回答
避免在带模式的
Spark
SQL中进行双精度转换
、
、
但是当
spark
看到标签使用E将其转
换为
不同格式时是原来的两倍{"key" : "k1", "value": "86093351508521808.0"} SQLContext sqlCtx = sparkSession.sqlContext(); System.out.println("<e
浏览 0
提问于2017-10-27
得票数 0
1
回答
Scala
返回“不支持类型单元的架构”
、
我想对dataframe中的
列
进行更改。
列
是整数的数组。我想替换数组的一个元素,从另一个数组中
获取
索引,并将该元素替
换为
来自第三个数组的元素。示例:我有三个
列
-- C1、C2、C3 --这三个数组。我编写了以下UDF: def UpdateHist = udf((CRF_count:
Seq
[Long], Day:
Seq
[String], History:
Seq
[Int])=> for(i <withColumn("Histo
浏览 0
提问于2018-07-02
得票数 0
回答已采纳
1
回答
使用Java类的星火
Scala
数据
集
、
、
、
、
我正在使用
Scala
绑定创建一个
Spark
应用程序。但是我的一些模型(类)是用Java编写的。当我试图创建一个基于
Scala
的
数据
集
时,它工作得很好,当我执行show()时,所有的
列
都是可见的。但是,当我创建一个基于Java的
数据
集
时,所有的
列
都打包在一个名为value的
列
中。
Scala
案例类示例:处决: sqlC
浏览 1
提问于2019-07-31
得票数 2
回答已采纳
2
回答
如何在ISIN操作符中传递
数据
、
、
、
( 1)在这里,我选择特定的
列
,以便在下一个查询中通过ISIN2)我的样本
数据
: +----------+[manager_id: bigint] 我也尝试过转
换为
List和
Seq
,但是它只生成一个错误。与下面一样,当我尝试转
换为
Seq</em
浏览 0
提问于2018-10-02
得票数 3
回答已采纳
2
回答
火花连接中如何
获取
单个
数据
块的密钥
假设我有两个
数据
集
,如下所示 case class Book(book_name: String, cost: Int, writer_id:Int) Book("
Scala
", 400, 1), Book("Kafka", 300, 3),Write
浏览 1
提问于2020-10-09
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券