我刚刚开始使用Airflow-Pentaho-Plugin。我已经在Pentaho数据集成服务器上创建了一个转换,并创建了一个从Airflow到PDI的连接。即使转换失败,转换的状态在作业图上也始终是绿色的,并且作业也会被触发。我可以在日志中看到转换失败。我期望失败应该被报告,而不是运行后续的下游。对于我遗漏了什么或者做错了什么,有什么建议吗?我的DAG如下: from datet
所有的DAG代码已经调整,我们正在使用到目前为止,最新的可用图像composer-2.0.0-preview.5-airflow-2.1.4。为了进行测试,我删除了K8s在K8s中的webserver上的健康检查(以及启动探针)。然后,我发现有一个来自airflow-monitoring pod (10.63.129.6)的IP的呼叫,此后不久,gunicorn进程接收到一个HUP:
airflow-webserver 10.63.1
在我对airflow的第一次尝试中,我尝试运行安装附带的一个示例DAGS。这是v.1.8.0。以下是我的步骤:[2017-04-19 15:32:38,391] {__init__.py:57} INFO-19 15:32:38,676] {models.py:167} INFO - Filling up the DagBag from /Users/gbenison/