有没有办法将命令行参数传递给AirflowBashOperator。目前,我有一个python脚本,它接受日期参数并执行一些特定的活动,比如清理比给定日期旧的特定文件夹。在只有一个任务的简化代码中,我想要做的是from airflow.operators import BashOperatorfrom airflow.models import DAG
from datetime impor
我需要向对象DatabricksRunNowOperator().传递一个job_id参数。$ databricks jobs create --json '{myjson}'
import subprocess from airflow.operators.bash_operator import BashOperator
from airflow.contrib.operato
此外,由于配置在每个任务中都是相同的,所以我不确定每次从数据库中获取它是否是个好主意。,这就是我不想使用xcom的原因,我使用了气流变量,因为JSON解析可以在一行中进行。mysql_query', mysql_conn_id='mysql_db_temp',
t3 = BashOperator{{var.json.jobconfig.Legion.laptopName