首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >将数据从我的spark代码发送到redshift

将数据从我的spark代码发送到redshift
EN

Stack Overflow用户
提问于 2016-02-26 00:10:13
回答 2查看 1.3K关注 0票数 1

我有一个用Scala编写的Spark代码。我的代码读取xml并提取其中的所有信息。目标是将XML中的信息存储到Redshift表中。

有没有可能不使用S3直接将数据从我的Scala Spark代码发送到Redshift?

干杯!

EN

回答 2

Stack Overflow用户

发布于 2016-02-26 00:46:51

如果您正在使用Spark SQL,那么可以使用spark-xml将XML数据读入DataFrame,然后使用spark-redshift将其写入Redshift表。你也可以在这个question上看看。

票数 1
EN

Stack Overflow用户

发布于 2016-02-26 20:59:29

您可以在Python/ Java代码中使用预先准备好的SQL语句进行行级插入,但是如果要插入多条记录,效率将非常低。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/35632518

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档