前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Mac部署spark2.4.4

Mac部署spark2.4.4

作者头像
程序员欣宸
发布2019-10-28 16:08:11
7890
发布2019-10-28 16:08:11
举报
文章被收录于专栏:实战docker实战docker

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

代码语言:txt
复制
                 本文链接:[https://blog.csdn.net/boling\_cavalry/article/details/102765992](https://blog.csdn.net/boling_cavalry/article/details/102765992) 

环境信息

  1. 操作系统:macOS Mojave 10.14.6
  2. JDK:1.8.0_211 (安装位置:/Library/Java/JavaVirtualMachines/jdk1.8.0_211.jdk/Contents/Home)

前提条件

请参考《Mac部署hadoop3(伪分布式)》一文,在Mac上事先部署好hadoop3

部署步骤

  1. 安装scala:
代码语言:javascript
复制
brew install scala
  1. 配置scala的环境变量,打开文件~/.bash_profile,增加以下配置内容:
代码语言:javascript
复制
export SCALA_HOME=/usr/local/Cellar/scala/2.13.0
export PATH=$PATH:$SCALA_HOME/bin
  1. 执行命令source ~/.bash_profile,再验证scala:
代码语言:javascript
复制
base) zhaoqindeMBP:~ zhaoqin$ scala -version
Scala code runner version 2.13.0 -- Copyright 2002-2019, LAMP/EPFL and Lightbend, Inc.
  1. 下载spark,地址是:http://spark.apache.org/downloads.html ,如下图红框:
  1. 将下载的文件在/usr/local/目录下解压,并将文件夹名字从spark-2.4.4-bin-hadoop2.7改为spark
  2. 配置spark的环境变量,打开文件~/.bash_profile,增加以下配置内容:
代码语言:javascript
复制
export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin
  1. 执行命令source ~/.bash_profile使配置生效;
  2. 打开文件spark/conf/spark-env.sh,在尾部增加以下三行:
代码语言:javascript
复制
export SCALA_HOME=/usr/local/Cellar/scala/2.13.0
export SPARK_MASTER_IP=localhost
export SPARK_WORKER_MEMORY=2G
  1. 确保hdfs和yarn已经启动,然后执行命令spark-shell,即可启动spark服务:
代码语言:javascript
复制
To update your account to use zsh, please run `chsh -s /bin/zsh`.
For more details, please visit https://support.apple.com/kb/HT208050.
(base) zhaoqindeMBP:~ zhaoqin$ spark-shell
19/10/27 13:33:51 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
Spark context Web UI available at http://zhaoqindembp:4040
Spark context available as 'sc' (master = local[*], app id = local-1572154437623).
Spark session available as 'spark'.
Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /___/ .__/\_,_/_/ /_/\_\   version 2.4.4
      /_/

Using Scala version 2.11.12 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_211)
Type in expressions to have them evaluated.
Type :help for more information.

scala>

至此,Mac机器上的hadoop和spark都运行起来了,希望本文能给您带来一些参考。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019-10-27 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 环境信息
  • 前提条件
  • 部署步骤
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档