我想要有一个基本上看起来像这样的数据管道 ? 在多个任务由相应的pubsub消息触发的情况下,处理来自pubsub消息输入的数据,最后一个任务仅在所有这些工作流完成时触发。有没有办法从外部(从Cloud Function/PubSub)触发DAG中的1个任务?编辑 这是我所认为的DAG代码的简化版本: import google.cloud.bigquery as bigquery
from a
当我在没有自定义DAG的情况下启动When服务器时,我收到警告: [2021-01-12 11:38:58,095] {dagbag.py:440} INFO - Filling up the DagBag' from 'apache-airflow-providers-google' package: No module named 'airflow.providers.google.cloud'
[2021-01-12 11:38:59,050] {providers_
我想知道是否可以在这个文件中设置我的连接和变量。我知道我可以使用带有URI参数的AIRFLOW_CONN_...来建立连接。我的docker-compose.yaml文件:# or more contributorimage: ${AIRFLOW_IMAGE_NAME:-apache/airflow:2.1.4}
#