首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >winutils spark windows安装env_variable

winutils spark windows安装env_variable
EN

Stack Overflow用户
提问于 2016-05-19 00:14:29
回答 2查看 25.1K关注 0票数 5

我正在尝试在Windows10上安装Spark 1.6.1,到目前为止我已经完成了以下工作……

spark

  • 下载了spark 1.6.1,解压到某个目录,然后设置SPARK_HOME

  • Downloaded scala 2.11.8,解压到某个目录,然后设置SCALA_HOME

  • ,只需下载压缩目录,然后设置_JAVA_OPTION环境变量,就可以从https://github.com/steveloughran/winutils.git中设置HADOOP_HOME环境。(不确定这是否正确,因为权限被拒绝,我无法克隆目录)。

当我转到spark home并运行bin\spark-shell时,我得到

'C:\Program' is not recognized as an internal or external command, operable program or batch file.

我肯定遗漏了什么,我看不出我怎么能在windows环境下运行bash脚本。但希望我不需要理解就能让它正常工作。我一直在关注这个人的教程-- https://hernandezpaul.wordpress.com/2016/01/24/apache-spark-installation-on-windows-10/。任何帮助都将不胜感激。

EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/37305001

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档