强文本我已经安装了气流在码头和使用库伯内特斯执行器无法触发达格。Dag运行处于排队状态。KubernetesExecutor正在创建pod,但是它说是无效的图像。如果我描述这个吊舱,它使用的是本地执行器,而不是kubernetes执行器。请帮帮忙**kubectl describe pod tablescreationschematablescreation-ecabd38a66664a33b6645a72ef056edcexecution_date=2020-05-11T12_5
我使用的是与Kubernetes执行器一起的气流,并在本地进行测试(使用minikube),虽然我能够启动并运行它,但我似乎无法将我的日志存储在S3中。0x7fd00688a650>: Failed to establish a new connection: [Errno -2] Name or service not known')) AIRFLOW__KUBERNETES<
我的气流服务是以kubernetes部署方式运行的,它有两个容器,一个用于webserver,一个用于scheduler。我正在使用KubernetesPodOperator运行一个带有in_cluster=True参数的任务,它运行良好,甚至可以显示kubectl logs pod-name和所有日志。但是,airflow-webserver无法获取日志:
*** Log file does not exist: /tmp/logs/dag_name/task_name/
与测试Kubernetes env中的情况相同,但当我在那里触发DAG时,它会为DAG中的第一个任务创建pod,并立即从状态中删除该pod。Airflow UI具有该任务的空日志,因此无法检查导致问题的原因,并且依赖任务的其余部分将自动失败。:AIRFLOW__KUBERNETES__DAGS_VOLUME_CLAIM:AIRFLOW__KUBERNETES__LOGS_VOLUME_CLAIM:
air
我已经在现有的Airflow 2.0.0安装的基础上安装了Apache Spark provider,安装方法如下: pip install apache-airflow-providers-apache-spark' from 'apache-airflow-providers-apache-spark' package: name 'client' is not defined
[2021-01-19 18:49' from 'apache-airflow</