前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >[1101]flink常用参数说明

[1101]flink常用参数说明

作者头像
周小董
发布2022-04-13 15:06:50
1.7K0
发布2022-04-13 15:06:50
举报
文章被收录于专栏:python前行者

文章目录

flink run参数:

flink run命令执行模板:flink run [option]

参数

参数全称

描述

-c

–class

需要指定的main方法的类

-C

–classpath

向每个用户代码添加url,他是通过UrlClassLoader加载。url需要指定文件的schema如(file://)

-d

–detached

在后台运行

-p

–parallelism

job需要指定env的并行度,这个一般都需要设置。

-q

–sysoutLogging

禁止logging输出作为标准输出。

-s

–fromSavepoint

基于savepoint保存下来的路径,进行恢复。

-sae

–shutdownOnAttachedExit

如果是前台的方式提交,当客户端中断,集群执行的job任务也会shutdown。

flink run -m yarn-cluster参数

参数

参数全称

描述

-m

–jobmanager

yarn-cluster集群

-yd

–yarndetached

后台

-yjm

–yarnjobManager

jobmanager的内存

-ytm

–yarntaskManager

taskmanager的内存

-yn

–yarncontainer

TaskManager的个数

-yid

–yarnapplicationId

job依附的applicationId

-ynm

–yarnname

application的名称

-ys

–yarnslots

分配的slots个数

例:flink run -m yarn-cluster -yd -yjm 1024m -ytm 1024m -ynm -ys 1

flink-list

flink list:列出flink的job列表。 flink list -r/–runing:列出正在运行的job flink list -s/–scheduled:列出已调度完成的job

flink cancel

flink cancel [options] <job_id> : 取消正在运行的job id

flink cancel -s/–withSavepoint <job_id> : 取消正在运行的job,并保存到相应的保存点

通过 -m 来指定要停止的 JobManager 的主机地址和端口

例: bin/flink cancel -m 127.0.0.1:8081 5e20cb6b0f357591171dfcca2eea09de

flink stop:仅仅针对Streaming job

flink stop [options] <job_id>

flink stop <job_id>:停止对应的job

通过 -m 来指定要停止的 JobManager 的主机地址和端口

例: bin/flink stop -m 127.0.0.1:8081 d67420e52bd051fae2fddbaa79e046bb

取消和停止(流作业)的区别如下:

cancel() 调用,立即调用作业算子的 cancel() 方法,以尽快取消它们。如果算子在接到 cancel() 调用后没有停止,Flink 将开始定期中断算子线程的执行,直到所有算子停止为止。

stop() 调用,是更优雅的停止正在运行流作业的方式。stop() 仅适用于 Source 实现了 StoppableFunction 接口的作业。当用户请求停止作业时,作业的所有 Source 都将接收 stop() 方法调用。直到所有 Source 正常关闭时,作业才会正常结束。这种方式,使作业正常处理完所有作业。

flink modify 修改任务并行度

flink modify <job_id> [options]

flink modify <job_id> -p /–parallelism p : 修改job的并行度

例: flink modify -p 并行数 <job_pid>

flink savepoint

flink savepoint [options] <job_id>

eg: # 触发保存点

flink savepoint <job_id> hdfs://xxxx/xx/x : 将flink的快照保存到hdfs目录

  • 使用yarn触发保存点 flink savepoint <job_id> <target_directory> -yid <application_id>
  • 使用savepoint取消作业 flink cancel -s <tar_directory> <job_id>
  • 从保存点恢复 flink run -s <target_directoey> [:runArgs]
  • 如果复原的程序,对逻辑做了修改,比如删除了算子可以指定allowNonRestoredState参数复原。 flink run -s <target_directory> -n/–allowNonRestoredState [:runArgs]

savepoint 与 checkpoint 的区别

checkpoint是增量做的,每次的时间短,数据量小,只要在程序里面启用后会自动触发,用户无需感知;savepoint是全量做的,时间长,数据量大,需要用户主动触发。

checkpoint 是作业failover 的时候自动使用,不需要用户指定,savepoint 一般用于程序版本更新、bug修复、A/B Test 等场景,需要用户指定。

例子: 实时风控:对应的数据源mq有八个队列,所以并行度设置为8

代码语言:javascript
复制
flink run -m yarn-cluster -p 8 -ytm 1024m -yjm 2048m -ys 1 -c com.enmonster.OrderDataProcessing sdb-ms-1.0-SNAPSHOT.jar /opt/cloudera/parcels/FLINK-1.9.0-csa1.0.0.0-cdh6.3.0/lib/flink/plugins/config.txt

编号

参数

描述

1

flink run -m yarn-cluster

flink任务在Flink job on YARN模式下的固定参数

2

-p

指定的程序并行度

3

-ytm

每个TaskManger分配的内存大小

4

-yjm

JobManger分配的内存大小,一个程序一般只有一个JobManger

5

-ys

一个TaskManger中启动的slot个数

6

-s

程序checkpoint检查点手动恢复指定路径,只在程序重新启动的时候使用

7

-c

程序主类类名

8

sdb-ms-1.0-SNAPSHOT.jar

程序jar包所在位置

9

/opt/cloudera/parcels/FLINK-1.9.0-csa1.0.0.0-cdh6.3.0/lib/flink/plugins/

程序配置文件的存放路径

10

config.txt

程序的配置文件

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022/03/13 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 文章目录
  • flink run参数:
  • flink run -m yarn-cluster参数
  • flink-list
  • flink cancel
  • flink stop:仅仅针对Streaming job
  • flink modify 修改任务并行度
  • flink savepoint
相关产品与服务
大数据
全栈大数据产品,面向海量数据场景,帮助您 “智理无数,心中有数”!
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档