首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Spark伪分布式集群搭建

    soft]# cd /opt [root@repo opt]# mv spark-2.2.0-bin-hadoop2.7 spark-2.2.0 (2) 修改spark-env.sh配置文件 # 把SPARK_HOME...环境变量 [root@repo conf]# vim /etc/profile export SPARK_HOME=/opt/spark-2.2.0 export PATH=$PATH:$SPARK_HOME.../bin:$SPARK_HOME/sbin [root@repo conf]# source /etc/profile (5) 启动spark伪分布式集群 注意: 上一步配置了SPARK_HOME,所以在任意位置使用...解决办法: 启动或关闭spark集群,即使你配置了环境变量,还是进入spark的sbin目录下去操作吧,那还配SPARK_HOME干嘛?我们可以在任意位置执行提交spark任务的命令。.../start-all.sh 把SPARK_HOME/sbin/目录下的start-all.sh和stop-all.sh两个命令修改一下名字,比如分别修改为start-spark-all.sh和stop-spark-all.sh

    1.6K10
    领券