首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >要在Hadoop3.1.2之上运行,我应该下载哪个Spark版本?

要在Hadoop3.1.2之上运行,我应该下载哪个Spark版本?
EN

Stack Overflow用户
提问于 2019-12-10 11:50:14
回答 1查看 5.5K关注 0票数 2

在星火下载页面中,我们可以在3.0.0预览版和2.4.4版本之间进行选择。

对于3.0.0版本-预览有包类型

  • 预构建Apache Hadoop 2.7
  • 为ApacheHadoop3.2及更高版本预先构建的
  • 使用用户提供的Apache Hadoop预构建
  • 源代码

对于2.4.4版本,有几种包类型

  • 预构建Apache Hadoop 2.7
  • 预构建Apache Hadoop 2.6
  • 使用用户提供的Apache Hadoop预构建
  • 预构建的Scala 2.12和用户提供的Apache
  • 源代码

由于没有为Apache 3.1.2预先构建的选项,所以我可以下载一个使用用户提供的Apache包预构建的程序吗?还是应该下载源代码?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-12-10 23:38:56

如果你喜欢构建源代码,那么这是你最好的选择。

否则,您已经有了一个Hadoop集群,所以选择“用户提供的”并将您的相关核心-site.xml、hive-site.xml、丝-site.xml和hdfs-site.xml复制到$SPARK_CONF_DIR中,希望大部分都能工作。

注意: DataFrames直到Spark3.x- 火花-18673才能在Hadoop 3上工作。

票数 4
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/59266571

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档