腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
spark
scala
中
字符串
到
键值
的
转换
、
、
我喜欢将
字符串
值
转换
为
键值
对转到(val1,12),(val2,32),(val3,43)
浏览 2
提问于2017-06-16
得票数 0
回答已采纳
1
回答
带字典
的
PySpark约简键
、
、
、
、
为什么
Spark
强制从元组列表
中
构建RDD,以便在进行还原键
转换
的
情况下?(RDD.
scala
:306) at org.apache.
spark
.api.python.PairwiseRDD.compute(PythonRDD.
scala
:342) at org.apache.
spark
.r
浏览 0
提问于2018-01-18
得票数 1
1
回答
如何使用
Spark
在
Scala
中
返回多列键和值对
、
我想把下面的RDD
转换
成
键值
对,每个键有两个值。第一列应该是键,第二列和第三列应该是值。如何使用
scala
中
的
Case类执行
转换
?
scala
> input[Market,Market,Markets] [Adventure,Adventure
浏览 0
提问于2018-05-29
得票数 0
1
回答
Spark
Scala
拆分
字符串
语法问题
、
我尝试使用SparkSQL和
Scala
拆分DataFrame列
中
的
字符串
,这两种拆分条件
的
工作方式似乎有所不同 使用
Scala
, 这是可行
的
- val seq = Seq("12.1")val df = seq.toDF("val") val after
浏览 18
提问于2019-01-08
得票数 0
回答已采纳
1
回答
影响preservesPartitioning RDD真/假给出了相同
的
mapPartitions结果
、
、
不错
的
散文,但它真正意味着什么呢?这里是一个人为
的
琐碎例子,不管我是否将true或false传递给mapPartitions,对于新
的
RDD,每个分区
的
数据分区仍然是相同
的
,即使我改变了K,V
的
K值,那么,意义是什么呢?一定是我错过了一些基本
的
东西。import org.apache.
spark
.HashPartitionerdef myfunc(iter: Iterator[
浏览 0
提问于2020-01-02
得票数 2
回答已采纳
1
回答
如何测试某个值是否是RDD
的
键
、
我对
Spark
和
Scala
非常陌生,我想测试一个值是否是RDD
中
的
一个键。我掌握
的
数据如下: RDD :关键
的
->统计数据 是否有更好
的</em
浏览 1
提问于2015-01-12
得票数 1
回答已采纳
1
回答
Spark
动态Json解析成
键值
字符串
、
、
、
、
我试图动态地将一个通用
的
json
转换
成
键值
字符串
(至少3层嵌套)。例如: Json:结果:
键值
字符串
类似于:在这里,键可能是任何东西,所以不能使用键
的
硬编码
字符串
值来解析。我尝试通过rdd =
spark
.sparkContext.wholeTextFiles("s3://
浏览 28
提问于2020-11-16
得票数 0
2
回答
MongoDB和
Spark
:无法将
字符串
转换
为TimestampType
、
我使用官方
的
MongoDB
Spark
Connector从MongoDB集合
中
读取
Spark
中
的
数据,代码如下: INFO DAGScheduler: Job 1 fail
浏览 12
提问于2018-11-28
得票数 1
3
回答
如何将.sql文件加载到
Scala
?
、
、
我将一个很长
的
SQL查询存储在一个data.sql文件
中
。我想在我
的
Scala
代码
中
执行这个文件。对于sql
字符串
,我使用
spark
.sql( sqlQuery )来执行sqlQuery。
浏览 0
提问于2018-05-09
得票数 3
2
回答
不能显示/写从火花DF读取使用蒙戈火花连接器。
、
、
我正在尝试从MongoDB读取一个庞大
的
复杂文档
到
spark
数据框架
中
。当我将这个数据库
转换
成json时,它就能工作了。但是,如果我直接从com.mongodb.
spark
.exceptions.MongoTypeConversionException:
中
读取,则会得到以下错误:由: MongoDB引起
的
不能将
字符串
转换
为mongo$.main(mongo.
scala
:270) - df.show(
浏览 1
提问于2018-04-03
得票数 1
2
回答
将拼花文件存储
到
PostgreSQL数据库
中
、
、
、
、
我正在使用
Spark
并编写文件,我使用
的
是
Spark
的
write.jdbc函数。对于长、十进制或文本这样
的
拼花列类型,一切都可以正常工作。问题在于像Map这样
的
复杂类型。我想将Map作为json存储在我
的
PostgreSQL
中
。因为我知道PostgreSQL可以自动将文本数据类型
转换
为json (使用强制
转换
操作),所以我将映射转储
到
json
字符串
。但是星火程序抱怨说,我们试图将“
浏览 1
提问于2018-04-20
得票数 2
回答已采纳
1
回答
如何在Pandas数据
转换
过程
中
处理时间戳类型?
、
、
、
、
我看了一下“createDataFrame”()
中
的
pyspark源代码,它们似乎将数据
转换
为numpy记录数组,并将其
转换
为列表:我知道
的
几种方法将涉及创建处理,这些方法包括: 在熊猫
中
向datetime对象添加时区信息。然而,这似乎是不必要
的
,并可能导致错误取决于您自己
的
时区。使用datetime库将long
转换
为时间戳。侧
浏览 2
提问于2017-07-25
得票数 5
2
回答
将Json
字符串
从
Spark
立即索引到Elasticsearch
、
、
、
、
有没有可能将JSON
字符串
直接从
Spark
索引到Elasticsearch?我不想有任何中间
的
Scala
case类,或者POJOS。然而,我不断地得到: org.apache.
spark
.util.TaskC
浏览 0
提问于2017-08-17
得票数 1
1
回答
spark
sql类似于区分大小写吗?
、
、
看起来
spark
sql对" like“查询是区分大小写
的
,对吧?
spark
.sql("select distinct status, length(status) from table")Active|6 不返回值
spark
.sql("select distin
浏览 8
提问于2018-11-28
得票数 4
1
回答
将distinct键
转换
为
spark
中
的
列
、
我希望将
键值
RDD
转换
为列,其中distinct键应该是列,例如(serviceName,service1)(endTime,2345)-----------|---------|---------service2 |4567 |7891 有谁可以使用
scala
在
spark
中
帮助实现这一点吗?
浏览 0
提问于2018-04-06
得票数 0
1
回答
从Python
的
Scala
eqv
的
多列创建一个
、
我在Python中使用下面的代码来
转换
来自多个列
的
键值
(Dataframe,其中有2列InternalId和ExternalId,从
spark
返回),并在Python中将其合并为单列"body“。480941,"ExternalId":"a020H00001Tt7NrQAJ"}我如何在
Scala
浏览 3
提问于2020-04-28
得票数 0
回答已采纳
2
回答
如何在
spark
-
scala
中将值从文件
转换
为Map?
、
我在一个文件中用逗号分隔了我
的
值。现在,我希望将此数据
转换
为
键值
对(Map)。我知道我们可以拆分这些值并存储在一个数组
中
,如下所示。val prop_file = sc.textFile("/prop_file.txt") 有没有办法在
spark
-
scala
浏览 1
提问于2016-02-18
得票数 0
1
回答
从Apache
Spark
中
填充弹出式搜索日期
、
、
、
、
我在星火城有一个DataFrame,计划如下:style: string我
的
日期是日期
字符串
,如“yyyy HH:mm:ss.SSS”我使用以下方法将"creationdate“从
字符串
转换
为日期: "creationdate&q
浏览 1
提问于2017-03-29
得票数 1
回答已采纳
1
回答
仅从
scala
中
的
HDFS目录获取所需
的
文件详细信息
、
、
、
我在使用
Spark
Scala
中
的
org.apache.hadoop.fs包时遇到了一个问题。我只需要给定目录中所需
的
文件详细信息(文件名、块大小、修改时间)。在我
的
Spark
代码
中
,对于以ListDetails形式存在
的
每个文件,我只需要上面提到
的
三个参数。我试着把ArrayFileStatus解析成Json,并取出所需
的
键值
对,但我不能。java.lang.ClassCastE
浏览 166
提问于2018-07-10
得票数 0
回答已采纳
3
回答
如何在
spark
scala
中将二进制
字符串
转换
为
scala
字符串
、
、
、
我正在读取一个avro文件,其中包含一个作为二进制
字符串
的
字段,我需要将其
转换
为java.lang.string以将其传递
到
另一个库(
spark
-xml-util),如何有效地将其
转换
为avro。这是我到目前为止得到
的
代码: val df = sqlContext.read.format("com.databricks.
spark
.avro").load("filePath/fileName.avroth
浏览 0
提问于2017-08-03
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
机器学习实践:如何将Spark与Python结合?
大画 Spark :: 网络(7)-Spark网络中的“四次握手”Executor注册到Driver过程中的TransportClient与细节过程
Spark1.6官方文档译文系列一
C语言实现把字符串中的数字转换成整数
Spark SQL DataFrame与RDD交互
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券