首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >未能找到“火花-提交2.cmd”

未能找到“火花-提交2.cmd”
EN

Stack Overflow用户
提问于 2020-11-01 13:28:06
回答 1查看 144关注 0票数 0
代码语言:javascript
运行
复制
> library('BBmisc')
> library('sparklyr')
> sc <- spark_connect(master = 'local')
Error in start_shell(master = master, spark_home = spark_home, spark_version = version,  : 
  Failed to find 'spark-submit2.cmd' under 'C:\Users\Owner\AppData\Local\spark\spark-3.0.0-bin-hadoop2.7', please verify - SPARK_HOME.
> spark_home_dir()
[1] "C:\\Users\\Owner\\AppData\\Local/spark/spark-3.0.0-bin-hadoop2.7"
> spark_installed_versions()
  spark hadoop                                                              dir
1 3.0.0    2.7 C:\\Users\\Owner\\AppData\\Local/spark/spark-3.0.0-bin-hadoop2.7
> spark_home_set()
Setting SPARK_HOME environment variable to C:\Users\Owner\AppData\Local/spark/spark-3.0.0-bin-hadoop2.7
> sc <- spark_connect(master = 'local')
Error in start_shell(master = master, spark_home = spark_home, spark_version = version,  : 
  Failed to find 'spark-submit2.cmd' under 'C:\Users\Owner\AppData\Local\spark\spark-3.0.0-bin-hadoop2.7', please verify - SPARK_HOME.

来源:https://github.com/englianhu/binary.com-interview-question/issues/1#issue-733943885

我可以知道如何解决Failed to find 'spark-submit2.cmd' under 'C:\Users\Owner\AppData\Local\spark\spark-3.0.0-bin-hadoop2.7', please verify - SPARK_HOME.吗?

参考资料:需要帮助开始使用火花和火花

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2020-11-06 21:13:41

解决了!

步骤:

  1. https://spark.apache.org/downloads.html
  2. 将压缩文件解压缩到'C:/Users/scibr/AppData/Local/spark/spark-3.0.1-bin-hadoop3.2'
  3. 手动选择最新版本:spark_home_set('C:/Users/scibr/AppData/Local/spark/spark-3.0.1-bin-hadoop3.2')

GitHub来源:https://github.com/englianhu/binary.com-interview-question/issues/1#event-3968919946

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/64632416

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档