首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >使用Docker运行spark

使用Docker运行spark

作者头像
kongxx
发布2018-07-04 10:29:26
发布2018-07-04 10:29:26
2.3K0
举报

获取docker镜像

代码语言:javascript
复制
sudo docker pull sequenceiq/spark:1.6.0

运行docker容器

代码语言:javascript
复制
sudo docker run -it --name spark --rm sequenceiq/spark:1.6.0 /bin/bash

运行作业

代码语言:javascript
复制
$ cd /usr/local/spark
$ bin/spark-submit --master yarn-client --class org.apache.spark.examples.JavaWordCount lib/spark-examples-1.6.0-hadoop2.6.0.jar file:/usr/local/hadoop/input/

我们也可以把启动容器和运行作业放在一起,比如:

代码语言:javascript
复制
sudo docker run -it --name spark --rm sequenceiq/spark:1.6.0 sh -c "\"spark-submit --master yarn-client --class org.apache.spark.examples.JavaWordCount /usr/local/spark/lib/spark-examples-1.6.0-hadoop2.6.0.jar file:/usr/local/hadoop/input/\""
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018.07.04 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 获取docker镜像
  • 运行docker容器
  • 运行作业
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档