前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Centos 7.4 安装单机版 Spark

Centos 7.4 安装单机版 Spark

作者头像
拾贰
发布2019-08-28 11:00:09
2.4K0
发布2019-08-28 11:00:09
举报
文章被收录于专栏:前端讲堂
u=370960796,3925594138&fm=26&gp=0.jpg
u=370960796,3925594138&fm=26&gp=0.jpg

前言

由于个人学习需要,所以来研究一下怎么安装 Spark,但是由于个人的经济资源有限,所以还没有上集群,这里先试一下单机版的 Spark。后期有扩展的话,同步更新集群安装教程。

以下一切操作都基于 root 用户。

0. 安装 Scala

0.1 安装前

在安装 Spark 之前需要先安装一下 Scala,因为 Spark 依赖于 Scala。所以我们先安装一下 Scala,先到Scala官网上下载一下 Scala 的压缩包。

然后我们将压缩包上传到 Centos 服务器上,怎么上传这里就不做细说。 我们将压缩包放到 /opt/scala 目录下,然后将其解压。

解压命令

代码语言:javascript
复制
tar -xvf scala-2.12.2.tgz
0.2 配置环境变量

/etc/profile 中添加环境变量,添加 export SCALA_HOME=/opt/scala/scala-2.12.2 并在 path 中加入 ${SCALA_HOME}/bin:

下面是我的环境变量。

代码语言:javascript
复制
export JAVA_HOME=/usr/local/java/jdk1.8.0_221
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export SCALA_HOME=/opt/scala/scala-2.12.2
export PATH=${JAVA_HOME}/bin:${SCALA_HOME}/bin:$PATH

然后我们可以验证一下 scala:

到这里 scala 安装就完成了,接下来就是 Spark 的安装啦~~~

1. 安装 Spark

1.1 下载以及解压

Scala 相同我们先去逛网下载一下包,然后上传到服务器。

同理,我们将压缩包放到 /opt/spark 目录下,然后将其解压。

解压命令

代码语言:javascript
复制
tar -xvf spark-2.4.3-bin-hadoop2.7.tgz
1.2 配置环境变量

大同小异,在 /etc/profile 中添加环境变量,添加 export SPARK_HOME=/opt/spark/spark-2.4.3-bin-hadoop2.7 并在 path 中加入 ${SPARK_HOME}/bin:

下面是我的环境变量。

代码语言:javascript
复制
export JAVA_HOME=/usr/local/java/jdk1.8.0_221
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export SCALA_HOME=/opt/scala/scala-2.12.2
export SPARK_HOME=/opt/spark/spark-2.4.3-bin-hadoop2.7
export PATH=${JAVA_HOME}/bin:${SPARK_HOME}/bin:${SCALA_HOME}/bin:$PATH
1.3 配置 Spark

首先进入到解压文件的 conf 目录下,也就是是 /opt/spark/spark-2.4.3-bin-hadoop2.7/conf/,我们可以看到有一个模板文件,我们 copy 一份。

代码语言:javascript
复制
cp spark-env.sh.template spark-env.sh

我们对拷贝的文件进行编辑,加入以下内容:

代码语言:javascript
复制
export JAVA_HOME=/usr/local/java/jdk1.8.0_221
export SCALA_HOME=/opt/scala/scala-2.12.2
export SPARK_HOME=/opt/spark/spark-2.4.3-bin-hadoop2.7
export SPARK_MASTER_IP=learn
export SPARK_EXECUTOR_MEMORY=1G

同样我们拷贝一份 slaves

代码语言:javascript
复制
cp slaves.template slaves

编辑 slaves,内容为 localhost:

代码语言:javascript
复制
localhost

然后我们可以进行测试,/opt/spark/spark-2.4.3-bin-hadoop2.7 在这个目录下执行:

代码语言:javascript
复制
./bin/run-example SparkPi 10

在这我们可以看到已经执行成功。

1.4 启动 Spark Shell

跟上面一样也是在 /opt/spark/spark-2.4.3-bin-hadoop2.7 目录下,执行:

代码语言:javascript
复制
./bin/spark-shell

我们可以看到以下结果:

到这为止,单机版的 Spark 就安装完毕了~~~

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019-08-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • 0. 安装 Scala
    • 0.1 安装前
      • 0.2 配置环境变量
      • 1. 安装 Spark
        • 1.1 下载以及解压
          • 1.2 配置环境变量
            • 1.3 配置 Spark
              • 1.4 启动 Spark Shell
              领券
              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档