首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >错误:运行spark-submit时缺少应用程序资源

错误:运行spark-submit时缺少应用程序资源
EN

Stack Overflow用户
提问于 2020-12-26 17:45:07
回答 1查看 779关注 0票数 2

我在我的系统上安装了Spark 3.x,并在我的Unix终端上以纱线集群模式提交了spark命令,得到了下面的错误。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
(base) vijee@vijee-Lenovo-IdeaPad-S510p:~/spark-3.0.1-bin-hadoop2.7$ bin/spark-submit --master yarn --deploy-mode cluster --py-files /home/vijee/Python/PythonScriptOnYARN.py

并在错误下面抛出

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
Error: Missing application resource 

以下是我的查询的完整详细信息:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
(base) vijee@vijee-Lenovo-IdeaPad-S510p:~/spark-3.0.1-bin-hadoop2.7$ bin/spark-submit --master yarn --deploy-mode "cluster" --driver-memory 1G --executor-cores 2 --num-executors 1 --executor-memory 2g --py-files /home/vijee/Python/PythonScriptOnYARN.py
Error: Missing application resource.

SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/vijee/spark-3.0.1-bin-hadoop2.7/jars/slf4j-log4j12-1.7.30.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/vijee/hadoop-2.7.7/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
Usage: spark-submit [options] <app jar | python file | R file> [app arguments]
Usage: spark-submit --kill [submission ID] --master [spark://...]
Usage: spark-submit --status [submission ID] --master [spark://...]
Usage: spark-submit run-example [options] example-class [example args]

Options:
  --master MASTER_URL         spark://host:port, mesos://host:port, yarn,
                              k8s://https://host:port, or local (Default: local[*]).
  --deploy-mode DEPLOY_MODE   Whether to launch the driver program locally ("client") or
                              on one of the worker machines inside the cluster ("cluster")
                              (Default: client).
  --class CLASS_NAME          Your application's main class (for Java / Scala apps).
  --name NAME                 A name of your application.
  --jars JARS                 Comma-separated list of jars to include on the driver
                              and executor classpaths.
  --packages                  Comma-separated list of maven coordinates of jars to include
                              on the driver and executor classpaths. Will search the local
                              maven repo, then maven central and any additional remote
                              repositories are given by --repositories. The format for the
                              coordinates should be groupId:artifactId:version.
  --exclude-packages          Comma-separated list of groupId:artifactId, to exclude while
.
.
.

下面是我的配置设置:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
cat spark-env.sh

export HADOOP_HOME=/home/vijee/hadoop-2.7.7
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native:$LD_LIBRARY_PATH
export SPARK_DIST_CLASSPATH=/home/vijee/hadoop-2.7.7/etc/hadoop:/home/vijee/hadoop-2.7.7/share/hadoop/common/lib/*:/home/vijee/hadoop-2.7.7/share/hadoop/common/*:/home/vijee/hadoop-2.7.7/share/hadoop/hdfs:/home/vijee/hadoop-2.7.7/share/hadoop/hdfs/lib/*:/home/vijee/hadoop-2.7.7/share/hadoop/hdfs/*:/home/vijee/hadoop-2.7.7/share/hadoop/yarn:/home/vijee/hadoop-2.7.7/share/hadoop/yarn/lib/*:/home/vijee/hadoop-2.7.7/share/hadoop/yarn/*:/home/vijee/hadoop-2.7.7/share/hadoop/mapreduce/lib/*:/home/vijee/hadoop-2.7.7/share/hadoop/mapreduce/*:/home/vijee/hadoop-2.7.7/contrib/capacity-scheduler/*.jar


cat .bashrc

export HADOOP_HOME=/home/vijee/hadoop-2.7.7
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop

export SPARK_HOME=/home/vijee/spark-3.0.1-bin-hadoop2.7
export PATH="$PATH:/home/vijee/spark-3.0.1-bin-hadoop2.7/bin"
export PYTHONPATH=$SPARK_HOME/python/:$PYTHONPATH
export PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.10.9-src.zip:$PYTHONPATH
export PYSPARK_PYTHON=/home/vijee/anaconda3/bin/python3
export PYSPARK_DRIVER_PYTHON=/home/vijee/anaconda3/bin/jupyter
export PYSPARK_DRIVER_PYTHON_OPTS="notebook"


cat spark-defaults.cong

spark.master yarn
spark.driver.memory 512m
spark.yarn.am.memory 512m
spark.executor.memory 512m

# Configure history server

spark.eventLog.enabled true
spark.eventLog.dir hdfs://localhost:9000/sparklogs
spark.history.provider org.apache.spark.deploy.history.FsHistoryProvider
spark.history.fs.logDirectory hdfs://localhost:9000/sparklogs
spark.history.fs.update.interval 10s
spark.history.ui.port 18080

spark.yarn.security.tokens.hive.enabled true

cat PythonScriptOnYARN.py

from pyspark.sql import SparkSession
from pyspark import SparkContext
from pyspark.sql import Row

SS = SparkSession.builder.master("yarn").appName("ProjectYARN").enableHiveSupport().getOrCreate()
sc = SS.sparkContext

rdd1 = sc.textFile("file:///home/vijee/Python/car_data.csv")
rdd2 = rdd1.filter(lambda b: "id" not in b)

rdd3 = rdd2.map(lambda a: a.split(","))
rdd4 = rdd3.map(lambda c: Row(id=int(c[0]),CarBrand=c[1],Price=int(c[2]),Caryear=int(c[3]),Color=c[4]))
df11 = SS.createDataFrame(rdd4)
df11.createOrReplaceTempView("table1")

SS.sql("select * from table1 where CarBrand='GMC'").show()

SS.stop()

有人能给我解决我哪里做错了吗?如何解决这个问题?

EN

回答 1

Stack Overflow用户

发布于 2020-12-26 18:32:27

删除--py-files。这是为了添加模块,而不是为了指定要运行的脚本。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
bin/spark-submit --master yarn --deploy-mode cluster /home/vijee/Python/PythonScriptOnYARN.py
票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/65459056

复制
相关文章
quartus ii运行错误_安装quartus时弹出错误
Info: ******************************************************************* Info: Running Quartus II 64-Bit Analysis & Synthesis Info: Version 11.0 Build 157 04/27/2011 SJ Full Version Info: Processing started: Thu May 15 13:09:59 2014 Info: Command: quartus_map –read_settings_files=on –write_settings_files=off simulate -c simulate Info: Parallel compilation is enabled and will use 2 of the 2 processors detected Info: Found 1 design units, including 1 entities, in source file simulate.v Info: Found entity 1: modelsim_test Error: Top-level design entity “simulate” is undefined
全栈程序员站长
2022/11/04
5.1K0
quartus ii运行错误_安装quartus时弹出错误
Spark2.3.0 使用spark-submit部署应用程序
Spark的 bin 目录中的 spark-submit 脚本用于在集群上启动应用程序。可以通过一个统一的接口使用 Spark 所有支持的集群管理器,因此不必为每个集群管理器专门配置你的应用程序。
smartsi
2019/08/07
3K0
关于首次运行Hadoop的Grep案例时出现的错误
重点关注这句“19/05/14 18:26:55 INFO metrics.MetricsUtil: Unable to obtain hostName java.net.UnknownHostException: hadoop101: hadoop101: Temporary failure in name resolution”,其为hostname可能存在问题,因此去查看/etc/sysconfig/network文件和/etc/hosts文件,发现其network文件中的“HOSTNAME=”后多打了一个空格,把其去掉,即可,问题解决
可定
2020/04/20
4.4K0
Linux学习笔记之Linux运行脚本时 $'\r' 错误
用notepad++编译器打开脚本,编辑->文档格式转换->转换为UNIX格式,然后保存。
Jetpropelledsnake21
2019/03/15
1.5K0
Linux学习笔记之Linux运行脚本时 $'\r' 错误
spark-submit介绍
spark-submit脚本通常位于/usr/local/spark/bin目录下,可以用which spark-submit来查看它所在的位置,spark-submit用来启动集群中的应用,它使用统一的提交接口支持各种类型的集群服务器。为了将应用发布到集群中,通常会将应用打成.jar包,在运行spark-submit时将jar包当做参数提交。
Tyan
2019/05/25
3.4K0
spark-submit --files
  spark-submit --files通常用来加载外部资源文件,在driver和executor进程中进行访问
挽风
2023/10/17
7100
LabVIEW应用程序后台运行
本篇博文分享LabVIEW虽然不常用但是很有意思的一个开发技巧:应用程序后台运行。运行程序后自动隐藏前面板窗口和任务栏图标。
不脱发的程序猿
2022/05/07
1.4K0
LabVIEW应用程序后台运行
关于selenium 运行chrome时,出现错误信息 -ignore certificate errors
后面偶然看到可能和chromedriver的版本有关系,我使用的chrome的版本是65,
Mokwing
2020/09/08
1.3K0
安装SSL检查提示“错误: 服务器缺少中间证书”
首先检测下证书是不是中间证书缺失,以下两个网站都可以检测。 https://www.ssllabs.com/ssltest/index.html https://www.myssl.cn/tools/
咻一咻
2020/05/29
4.3K0
安装 winscp 时缺少 msvcr100.dll 怎么办?
有一天魏艾斯博客重做了单位的系统,用的网上下载的 ghost win7 包,安装其他软件的时候顺利,结果到了安装 winscp 的时候,提示缺少msvcr100.dll文件,而且无论你点击确定还是右上
魏艾斯博客www.vpsss.net
2018/06/01
8913
安装sql server时提示缺少.NET 3.5 sp1
这几天遇到了一个问题,在安装sql server的时候总是提示我没有安装.NET framework 3.5 sp1 ,但是我电脑上已经安装了它。多次尝试之后我百思不得其解,今天终于解决了。
乐百川
2022/05/05
1.2K0
client-go实战之八:更新资源时的冲突错误处理
欢迎访问我的GitHub 这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos 系列文章链接 client-go实战之一:准备工作 client-go实战之二:RESTClient client-go实战之三:Clientset client-go实战之四:dynamicClient client-go实战之五:DiscoveryClient client-go实战之六:时隔两年,刷新版本继续实战 client-go实战之七:准备一个工
程序员欣宸
2023/02/13
1.1K0
client-go实战之八:更新资源时的冲突错误处理
应用程序错误电脑黑屏_werfault应用程序错误黑屏|Win7解决werfault.exe应用程序错误方法…「建议收藏」
在我们使用电脑的时候,时常会遇到各种问题,有时候会遇到电脑弹出窗口提示werfault.exe应用程序错误,这是什么意思?该如何解决?下面小编就来和大家分享下Win7解决werfault.exe应用程序错误方法。
全栈程序员站长
2022/07/04
1.4K0
应用程序错误电脑黑屏_werfault应用程序错误黑屏|Win7解决werfault.exe应用程序错误方法…「建议收藏」
运行游戏时出现0xc000007b错误的解决方法[通俗易懂]
出现这个错误,可能是硬件的问题,也可能是软件的问题。但是,由于硬件引起该问题的概率很小,并且除了更换硬件之外没有更好的解决方法,因此本文将详细介绍如何通过软件解决此问题,这也是大家最关心的。由于本文阅读用户众多,大家对于电脑故障解决的熟悉程度也不一样,因此本文致力于用最通俗的语言,提供最简便的解决方法,满足绝大多数用户的需求。如果您是高级用户,也可以查看我的后续文章,查看问题具体原因分析。
全栈程序员站长
2022/07/01
8.8K0
运行游戏时出现0xc000007b错误的解决方法[通俗易懂]
DW 在onload运行recordset find.html时 发生了以下javascript错误
这两天打开Dreamweaver CS5,总是弹出一个错误,写着:   在onLoad运行RecordsetFind.htm时,发生了以下JavaScript错误:   在文件“RecordsetFind”中:   findRsisnotdefined   在关闭Dreamweaver的时候也会弹出一个类似的错误, 原因:DW 的配置信息出错了,可能是上次使用非法关闭造成的。   在网上查了一下,找到了解决方法。   方法如下: 删除该目录中对应的Dreamweaver版本文件夹。 xp系统,目录 C:/
deepcc
2018/05/16
1.6K0
安装pycharm创建新项目时出现错误interpreter field is empty,运行python程序
2.安装python,具体步骤参考如下博客的Python的安装部分,记住安装路径:
拓荒者
2019/03/11
4K0
安装pycharm创建新项目时出现错误interpreter field is empty,运行python程序
VBA: 运行时错误‘424’:要求对象(设置坐标轴标题时)
文章背景:有一组x-y的数据,想通过录制宏的方式,实现画图的自动化。本文以散点图为例,需要在图中添加坐标轴的标题。录制好宏后,运行代码时,报错如下:
Exploring
2022/09/20
4.6K0
VBA: 运行时错误‘424’:要求对象(设置坐标轴标题时)
限制Docker容器运行资源
Docker容器在默认情况下会使用宿主机的所有CPU和内存资源,为了明确限制每一个Docker容器的运行资源,需按如下操作。
编程随笔
2021/05/07
2K0
Docker运行图形应用程序
今天要用Docker在容器里运行一个带图形界面的应用程序,所有简单试了一下,还是比较容易实现,下面是我整理的步骤。 Dockerfile 首先创建一个Dockerfile,内容如下: FROM centos:7 RUN yum install -y sudo tar wget openssh-server openssh-clients openssl openssl-devel epel-release RUN yum install -y gedit #RUN yum groupinstall -y
kongxx
2018/05/14
1.7K0
点击加载更多

相似问题

运行“傀儡代理--noop”时缺少资源

13

在pyspark中运行脚本时缺少应用程序资源

12

Grails 2.0:运行多个实例时缺少资源

21

使用Marathon运行spark-submit应用程序

13

缺少资源时发生强制编译错误

30
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文