腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何将
JavaRDD
<
List
<
String
>>转
换为
JavaRDD
<
String
>
并在
不
使用
"[“
和
"]”
的
情况下
写入
文件
java
、
apache-spark
我有一个
JavaRDD
<
List
<
String
>>,当我
使用
javacontext.parallelize(rdd).coalesce(1, true).saveAsTextFile("dirname"); 我们可以将
JavaRDD
<
List
<
String
>>转
换为
JavaRDD
<
String
>并将其
写入
文件<
浏览 37
提问于2019-12-14
得票数 0
回答已采纳
6
回答
Java - Spark SQL DataFrame映射函数不起作用
java
、
sql
、
apache-spark
、
map-function
在Spark SQL中,当我试图在DataFrame上
使用
map函数时,我得到了下面的错误。新函数类型中
的
方法映射(Function1,ClassTag)不适用于参数( DataFrame (){})这是我
的
测试代码。DataFrame teenagers = sqlContext.sql("SELECT name FROM people WHERE age >= 13 AND age <= 19");
List
<
Str
浏览 0
提问于2015-04-22
得票数 5
1
回答
将JavaPairRDD转
换为
JavaRDD
java
、
elasticsearch
、
apache-spark
、
rdd
、
apache-spark-mllib
我想在这个RDD上
使用
来自MLLib
的
随机森林。因此,我将其转
换为
JavaPairRDD.toRDD(esRDD) --这将给我RDD。
使用
RDD,我将再次转
换为
JavaRDD
JavaRDD
<LabeledPoint> testData = split
浏览 4
提问于2015-10-08
得票数 2
回答已采纳
1
回答
将数据集应用于星火中
的
广播
java
、
hadoop
、
apache-spark
、
spark-dataframe
、
broadcast
我有两个数据集,我需要注册一个数据集(较小
的
数据集)作为广播,当我注册时,我无法
使用
广播功能。以下是代码:Broadcast<
JavaRDD
(map);
浏览 2
提问于2017-01-31
得票数 3
回答已采纳
3
回答
如何将
JavaRDD
写入
marklogic数据库
apache-spark
、
marklogic
、
marklogic-8
我已经读取了一个csv
文件
,现在我有了一个
JavaRDD
对象,我必须将它
转
储到marklogic数据库中。(sc); new Function<
String
, Record>() {让我们说,如果我们不能直接将
JavaRDD
写到marklogic,那么
浏览 6
提问于2016-12-29
得票数 2
2
回答
如何解决“类型
不
匹配:无法从
List
<
String
>转
换为
Iterator<
String
>”错误
java
、
apache-spark
、
java-8
我是java8
和
spark
的
新手,在这里我试图用java执行简单
的
平面图转换程序,但是我在第二行Arrays.asList(e.split(" ")));中遇到了一些平面图转换中
的
错误,错误是 import java.util.Arrays;
浏览 0
提问于2019-01-14
得票数 3
回答已采纳
1
回答
如何计算星火
JavaRDD
中当前行与前一行
的
差值
java
、
apache-spark
、
rdd
在对这个.log进行排序之后,我将
JavaRDD
文件
解析为
JavaRDD
,现在我已经进行了,例如oldJavaRDD2016-03-28 | 9 | object1 | region1因此,我必须计算当前行
和
前一行之间
的
时间(在某些
情况下
还
使用
标志
浏览 2
提问于2016-03-28
得票数 1
回答已采纳
4
回答
Elasticsearch-Spark序列化不适用于内部类
elasticsearch
、
apache-spark
例如: private
List
<Bar> bars = new ArrayList<Bar>(); }
List
<Foo> foos =
javaRDD
= jsc.parallelize(ImmutableList.copy
浏览 0
提问于2015-06-02
得票数 5
1
回答
替代
不
推荐
的
方法sparksession.read.json(
JavaRDD
)
java
、
apache-spark
、
apache-spark-sql
在将json
文件
转
换为
parquet
文件
之前,我
使用
sparksessions ().json方法来读取json
文件
,并且它工作得很好,但是.json(
JAVARDD
)方法显示为
不
推荐
的
方法。我们能有替代
的
方法吗。
使用
当前
的
java : spark版本2.4.3 我已经看过了火花库
的
文档,但是没有得到任何替代
的
方法。JavaSparkContext sc1 = J
浏览 2
提问于2019-08-05
得票数 2
回答已采纳
1
回答
将apache spark rdd
写入
多个s3
文件
夹
apache-spark
、
amazon-s3
、
java-8
、
partition
有一个Foo对象
的
JavaRDD
。而且,Foo有一个日期列。class Foo {
String
date;这是Foo对象
的
列表,2, 2019-08-014, 2019理想
情况下
,我们需要首先根据日期对RDD进行分区,然后将每个分区
写入
特定
的
输出路径。现在,我不确定
如何将
这对RDD
写入
s3。 //crea
浏览 17
提问于2019-08-08
得票数 0
3
回答
将
JavaRDD
转
换为
DataFrame时
的
火花错误: java.util.Arrays$ArrayList不是array<
string
>模式
的
有效外部类型
java
、
apache-spark
我正在
使用
Spark2.1.0。对于下面的代码,它读取文本
文件
并将内容转
换为
DataFrame,然后输入到Word2Vector模型中:
JavaRDD
<
List
<
String
>> lists = lines.map(new Function<
String
,
List
<
String
浏览 3
提问于2017-04-23
得票数 3
2
回答
星星2.3-用sc.textFile获取
文件
名?
java
、
apache-spark
、
apache-spark-sql
我想在插入DB时向每个行添加
文件
名。获取
文件
夹作为输入。
使用
textFile(...)方法加载
文件
夹:
JavaRDD
<
S
浏览 0
提问于2018-04-26
得票数 2
回答已采纳
1
回答
星星之火Java映射函数将被执行两次
java
、
apache-spark
、
apache-spark-sql
、
rdd
我有上面的代码作为火花驱动程序,当我执行我
的
程序,它正确地保存所需
的
数据作为Parquet
文件
。
String
indexFile = "index.txt";
JavaRDD
<
String
> jsonStringRDD = indexData.map(new Function<
浏览 0
提问于2016-10-16
得票数 5
回答已采纳
3
回答
Elasticearch
和
Spark:更新现有实体
elasticsearch
、
apache-spark
什么是正确
的
方式,当
使用
弹性搜索与星火,更新现有的实体?
JavaRDD
<Map<
String
, Object>> esRDD = JavaEsSpark.esRDD(jsc, INDEX_NAME+"/
浏览 1
提问于2015-06-07
得票数 5
1
回答
如何将
JavaRDD
<Integer>转
换为
DataFrame或DataSet
apache-spark
、
apache-spark-sql
、
rdd
、
sparkcore
(mappartRdd)转
换为
Java中
的
DataFrame。我
使用
下面的代码将
JavaRdd
转
换为
DataFrame/DataSet。sessn.createDataFrame(mappartRdd, beanClass); 我为createDataFrame尝试了多个选项
和
不同
的
重载函数。我正面临着将其转
换为
DF
的
问题。与scala不同
的
是,在Java中没有像toDF()这样
的
函数来将
浏览 3
提问于2020-06-12
得票数 0
回答已采纳
1
回答
流
文件
火花中
的
流口水
java
、
apache-spark
、
hadoop
、
spark-streaming
、
drools
我们能够成功地将drools与spark集成在一起,当我们尝试从Drools中应用规则时,我们可以对批处理
文件
进行处理,这是在HDFS中存在
的
,但是我们尝试
使用
drools进行流
文件
,以便我们能够立即做出决定,但是我们不知道如何做,it.Below是我们试图实现
的
代码
的
片段。<
String
>
javaRDD
= sc.textFile("/user/root/spark/sample.dat
浏览 2
提问于2015-02-09
得票数 5
2
回答
如何在Apache Spark中为两个不同结构
的
DataFrames实现NOT
java
、
sql
、
apache-spark
、
apache-spark-sql
我在我
的
Java应用程序中
使用
Apache。我有两个DataFrames:df1
和
df2。df1包含带有email、firstName
和
lastName
的
Rows。df2包含带有email
的
Rows。有什么方法可以让Apache做到这一点吗?我试图从df1
和
df2创建df1
和
df2,方法是将它们转
换为
toJavaRDD(
浏览 3
提问于2015-11-11
得票数 7
回答已采纳
2
回答
Spark中
的
并发作业执行
java
、
multithreading
、
apache-spark
、
hadoop-yarn
我
使用
了以下格式
的
输入数据:13514 我
使用
下面的代码片段
使用
多线程将threadName; private
JavaRDD
<
String
>
javaRDD
; // private Ja
浏览 1
提问于2015-06-16
得票数 6
2
回答
在星火中映射s3键到值
的
正确方法
apache-spark
、
amazon-s3
我在一个
文件
中有一个s3键列表,我希望将它们
的
值输入到一个RDD中。正确
的
方法是什么? 下面的代码是我当前
的
尝试。从s3中提取
文件
的
调用在map函数之外工作,但会在其内部导致空指针异常。是否有方法可以在不将
文件
放入RDD
的
情况下
从S3读取
文件
?
JavaRDD
<
String
> keys = spark.sparkContext().textFile("/
浏览 4
提问于2017-11-02
得票数 1
回答已采纳
4
回答
将Java中
的
地图列表转
换为
spark中
的
数据集
java
、
apache-spark
、
apache-spark-dataset
List
<Map<
String
, Object>> dataList = new ArrayList<>();row1我尝试
使用
以下命令将其转
换为
JavaRDD
<Map<
String
, Object>>
JavaRDD
<Map<
String
,Objec
浏览 46
提问于2019-08-06
得票数 3
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券