前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Ubuntu 16.04 Spark单机环境搭建

Ubuntu 16.04 Spark单机环境搭建

作者头像
红色石头
发布2017-12-28 15:57:15
9880
发布2017-12-28 15:57:15
举报

说道大数据和机器学习,就少不了Spark.本文主要介绍在Linux下搭建单机环境的Spark的步骤。

安装Java SE

1、下载JAVA SE linux版本。下载地址为: http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

注意选择Linux版本,根据机器类型选择32位或者64位。

2、下载jdk-8u131-linux-x64.tar.gz后,解压到自己指定目录。

代码语言:javascript
复制
$ tar -zxvf jdk-8u131-linux-x64.tar.gz -C /usr/lib/java

3、配置JAVA环境变量。

打开.bashrc文件。

代码语言:javascript
复制
$ nano ~/.bashrc

在.bashrc文件末尾增加如下内容:

代码语言:javascript
复制
export JAVA_HOME=/usr/lib/java/jdk1.8.0_131 
export JRE_HOME=${JAVA_HOME}/jre 
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib 
export PATH=${JAVA_HOME}/bin:${JRE_HOME}/bin:$PATH 

保存后退出,运行如下命令,使修改环境变量即可生效:

代码语言:javascript
复制
$ source ~/.bashrc

4、检测java是否成功安装。

代码语言:javascript
复制
$ java -version
java version "1.8.0_131"

如果显示了java安装的版本,则表示已正确安装,可以进行下一步了。

安装Scala

1、下载Scala的压缩文件。下载地址为: http://www.scala-lang.org/download/

2、下载scala-2.12.2.tgz后,解压到指定的目录:

代码语言:javascript
复制
$ tar -zxvf scala-2.12.2.tgz -C /opt/scala/

3、配置scala环境变量。

打开.bashrc文件。

代码语言:javascript
复制
$ nano ~/.bashrc

在.bashrc文件末尾增加如下内容:

代码语言:javascript
复制
export SCALA_HOME=/opt/scala/scala-2.12.2 
export PATH=${SCALA_HOME}/bin:$PATH 

保存后退出,运行如下命令,使修改环境变量即可生效:

代码语言:javascript
复制
$ source ~/.bashrc

4、检测scala是否正确安装。

代码语言:javascript
复制
$ scala -version
Scala code runner version 2.12.2 -- Copyright 2002-2017, LAMP/EPFL and Lightbend, Inc

若显示如上信息,则表示scala已安装正确。

安装Spark

1、下载Spark的压缩文件。下载地址为: http://spark.apache.org/downloads.html

2、下载spark-2.1.1-bin-hadoop2.7.tgz后,解压到指定的目录:

代码语言:javascript
复制
$ tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz -C /opt/spark/

3、配置scala环境变量。

打开.bashrc文件。

代码语言:javascript
复制
$ nano ~/.bashrc

在.bashrc文件末尾增加如下内容:

代码语言:javascript
复制
export SPARK_HOME=/opt/spark/spark-2.1.1-bin-hadoop2.7
export PATH=${SPARK_HOME}/bin:$PATH 

保存后退出,运行如下命令,使修改环境变量即可生效:

代码语言:javascript
复制
$ source ~/.bashrc

4、检测spark是否正确安装。

代码语言:javascript
复制
$ spark-shell

如果出现如下界面,则表示spark已正确安装:

这里写图片描述
这里写图片描述

安装sbt

1、下载Spark的压缩文件。下载地址为: http://www.scala-sbt.org/download.html

2、下载sbt-0.13.15.tgz后,解压到指定的目录:

代码语言:javascript
复制
$ tar -zxvf sbt-0.13.15.tgz -C /opt/scala/sbt/

3、配置sbt环境变量。

打开.bashrc文件。

代码语言:javascript
复制
$ nano ~/.bashrc

在.bashrc文件末尾增加如下内容:

代码语言:javascript
复制
export SBT_HOME=/opt/scala/sbt
export PATH=${SBT_HOME}/bin:$PATH 

保存后退出,运行如下命令,使修改环境变量即可生效:

代码语言:javascript
复制
$ source ~/.bashrc

4、建立启动sbt的脚本。

代码语言:javascript
复制
$ mkdir /opt/scala/sbt/ 
$ cd /opt/scala/sbt/ 
$ touch sbt  

脚本内容如下,注意sbt-launch.jar的路径

代码语言:javascript
复制
SBT_OPTS="-Xms512M -Xmx1536M -Xss1M -XX:+CMSClassUnloadingEnabled -XX:MaxPermSize=256M" 
java $SBT_OPTS -jar /opt/scala/sbt/bin/sbt-launch.jar "$@" 

修改sbt文件的权限

代码语言:javascript
复制
$ chmod u+x sbt 

5、检测sbt是否正确安装。

代码语言:javascript
复制
$ sbt sbt-version
[info] 0.13.15

第一次执行的时候会下载很多东西,不用管它,后来就好了。 如果出现sbt的版本信息就表示安装成功。

至此,Linux下Spark单机环境已经成功搭建完毕!

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017-05-07 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 安装Java SE
  • 安装Scala
  • 安装Spark
  • 安装sbt
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档