首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >从Spark流作业写入多个ES接收器

从Spark流作业写入多个ES接收器
EN

Stack Overflow用户
提问于 2020-01-09 01:13:37
回答 1查看 120关注 0票数 0

我正在使用Spark streaming来处理Kafka队列中的大量数据,我需要将结果写入设置的两个ES集群。

我在我的项目中使用了"org.elasticsearch.elasticsearch- spark -XX“,并且能够通过使用EsSpark.saveJsonToEs()方法写入一个ES集群,该方法在内部从不可变的spark上下文中获取ES的特定属性。

因此,如果spark上下文是不可变的,我如何在运行时更改属性并将结果写入多个ES集群。

请提个建议。

Ref - https://www.elastic.co/guide/en/elasticsearch/hadoop/6.7/spark.html

EN

回答 1

Stack Overflow用户

发布于 2020-01-10 01:39:05

我觉得下面的spark.driver.allowMultipleContexts方法应该行得通……使用新的spark配置单独创建spark上下文会话。

代码语言:javascript
运行
复制
conf.set("es.index.auto.create", "true")
conf.set("es.nodes", "XXXXXXXX")
conf.set("es.port", "9020")
conf.set("spark.driver.allowMultipleContexts", "true")
val sc1 = new SparkContext(conf)

代码语言:javascript
运行
复制
conf.set("es.index.auto.create", "true")
conf.set("es.nodes", "yyyyyy")
conf.set("es.port", "9020")
conf.set("spark.driver.allowMultipleContexts", "true")
val sc2 = new SparkContext(conf)
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/59650766

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档