首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

oozie 重新提交作业

在oozie的运行过程当中可能会出现错误,比如数据库连接不上,或者作业执行报错导致流程进入suspend或者killed状态,这个时候我们就要分析了,如果确实是数据或者是网络有问题,我们比如把问题解决了才可以重新运行作业...重新运行作业分两种情况,suspend状态和killed状态的,这两种状态是要通过不同的处理方式来处理的。   ...(1)suspend状态的我们可以用resume方式来在挂起的地方恢复作业,重新运行,或者是先杀掉它,让它进入killed状态,再进行重新运行。...,除了需要原有流程的id之外,还需要重新配置作业属性,它可以和原来的属性不一样,这里面有两个属性是必须要注意的,它们是重新提交作业必须具备的属性,如果不存在就会报错的,它们分别是oozie.wf.rerun.failnodes...好啦,就到这吧,oozie貌似就这么多东西了,目前貌似一直都没有看到它的事务机制,它的定时作业不太想研究,看着就费劲儿,还不如自己写一个定时作业呢。。。

1.1K90
您找到你想要的搜索结果了吗?
是的
没有找到

Linux系统--Linux进程与作业

Linux系统--Linux进程与作业管理(3) Linux进程管理和作业管理的另外几种管理命令:vmstat,dstat,pmap,glances,kill 1.vmstat命令:  vmstat -...3.glances命令: glance使用一款用户Linux命令行系统监视工具,使用Python开发,能够监视CPU,负载,内存,磁盘IO,网络流量,文件系统等信息。...终止“名称“之下的所有进程 killall [signal] program 6.Linux作业控制: 前台作业:通过终端启动,且启动后一直占据终端; 后台作业:可以通过终端启动,但启动后即转入后台运行...(1) 运行中的作业 Ctrl+z (2) 尚未启动的作业 # COMMAND & 此类作业虽然被送往后台运行,但其依然与终端相关;如果希望送往后台后,剥离与终端的关系: # nohup COMMAND... & 查看所有作业: # jobs 作业控制: # fg [[%]JOB_NUM]:把指定的后台作业调回前台; # bg [[%]JOB_NUM]:让送往后台的作业在后台继续运行; # kill [%JOB_NUM

1.4K30

Flink部署及作业提交(On YARN)

Hadoop环境快速搭建 官方文档: YARN Setup 在上一篇 Flink部署及作业提交(On Flink Cluster) 文章中,我们介绍了如何编译部署Flink自身的资源分配和管理系统,并将作业提交到该系统上去运行...因此,绝大部分企业都是将计算作业放到 YARN 上进行调度,而不是每种计算框架都单独搭一个资源分配和管理系统。这也是为什么要单独介绍Flink On YARN的原因。...想要深入了解的话可以参考官方文档: Deployment Modes ---- Flink on YARN Session模式实操 首先将在 Flink部署及作业提交(On Flink Cluster)...Tips:要想页面能够正常跳转,还得在浏览器所在主机的hosts文件中配置一下hadoop01这个主机名到IP的映射关系 接下来我们尝试一下提交作业到 YARN 上运行,首先准备好官方提供的测试文件,并...---- Flink Scala Shell的简单使用 在之前的演示中可以看到,提交的Flink作业都是以jar包形式存在的。

3.5K10

Spark Operator 是如何提交 Spark 作业

Overview 本文将 Spark 作业称为 Spark Application 或者简称为 Spark App 或者 App。...目前我们组的计算平台的 Spark 作业,是通过 Spark Operator 提交给 Kubernetes 集群的,这与 Spark 原生的直接通过 spark-submit 提交 Spark App...Spark Operator 的提交作业的逻辑主要在 pkg/controller/sparkapplication/submission.go。...Summary 本文主要介绍了 Spark Operator 中提交 Spark 作业的代码逻辑,也介绍了在 Spark Operator 中检查提交作业逻辑的问题,由于 Operator 依赖于 Spark...镜像,默认情况下,Tenc 上的 Spark Operator 使用的是计算资源组定制过的 Spark 镜像,因此,如果用户对作业提交有其他定制化的需求,就需要重新 build Spark Operator

1.3K30

Hadoop作业提交与执行源码分析

Hadoop作业提交与执行源码分析 1  概述 Job执行整体流程图 2  Job创建与提交过程 2.1         Configuration类 Configuration类定义了如下私有成员变量...2.3          JobClient.submitJob()提交job到JobTracker jobFile的提交过程是通过RPC模块来实现的。...注:submitJob内部通过JobSubmitter的SubmitJobInternal进行实质性的提交,即提交三个文件,job.jar,job.split,job.xml这三个文件位置由mapreduce...之后JobTracker会调用resortPriority()函数,将jobs先按优先级别排序,再按提交时间排序,这样保证最高优先并且先提交的job会先执行。...当然如果是存储在本地文件系统中,即使用LocalFileSystem时当然只有一个location即“localhost”了。

1.6K60

Spark源码分析-作业提交(spark-submit)

java命令,main class为SparkSubmit org.apache.spark.deploy.SparkSubmit 以 spark on yarn 为例 主要逻辑就是梳理参数,向yarn提交作业...submit org.apache.spark.deploy.SparkSubmit#runMain #主要生成提交作业的客户端进程所需的环境...,包括:进程参数、classpath,系统属性,mainclass org.apache.spark.deploy.SparkSubmit#prepareSubmitEnvironment...前面提到,spark向yarn提交作业的client类是org.apache.spark.deploy.yarn.YarnClusterApplication 向k8s提交作业的client类是org.apache.spark.deploy.k8s.submit.KubernetesClientApplication...下面主要分析下这个类提交作业流程。 向k8s提交作业,主要就是生成DriverPod的YAML内容,然后周期性监听并记录driverPod的日志。

96730

提交Spark作业 | 科学设定spark-submit参数

设得太大的话,又会抢占集群或队列的资源,导致其他作业无法顺利执行。 executor-cores 含义:设定每个Executor能够利用的CPU核心数(这里核心指的是vCore)。...需要注意的是,num-executors * executor-cores不能将队列中的CPU资源耗尽,最好不要超过总vCore数的1/3,以给其他作业留下剩余资源。...这个参数比executor-cores更为重要,因为Spark作业的本质就是内存计算,内存的大小直接影响性能,并且与磁盘溢写、OOM等都相关。...如果作业执行非常慢,出现频繁GC或者OOM,就得适当调大内存。并且与上面相同,num-executors * executor-memory也不能过大,最好不要超过队列总内存量的一半。...但是,如果Spark作业处理完后数据膨胀比较多,那么还是应该酌情加大这个值。与上面一项相同,spark.driver.memoryOverhead用来设定Driver可使用的堆外内存大小。

1.6K20

Spark源码系列(一)spark-submit提交作业过程

前言 折腾了很久,终于开始学习Spark的源码了,第一篇我打算讲一下Spark作业提交过程。 这个是Spark的App运行图,它通过一个Driver来和集群通信,集群负责作业的分配。...作业提交方法以及参数 我们先看一下用Spark Submit提交的方法吧,下面是从官方上面摘抄的内容。 # Run on a Spark standalone cluster ....前面不带--的可以在spark-defaults.conf里面设置,带--的直接在提交的时候指定,具体含义大家一看就懂。...client的话默认就是直接在本地运行了Driver程序了,cluster模式还会兜一圈把作业发到集群上面去运行。...我们回到Client类当中,找到ClientActor,它有两个方法,是之前说的preStart和receive方法,preStart方法用于连接master提交作业请求,receive方法用于接收从master

1.9K60
领券