我尝试了不同的方法来配置气流1.9来将日志写入s3,但是它只是忽略了它。我发现很多人在阅读日志之后都有问题,但是我的问题是日志仍然是本地的。我可以毫无问题地阅读它们,但它们不在指定的s3桶中。我尝试的是首先写入airflow.cfg文件
# Airflow can store logs remotely in AWS S3 or Google Cloud Storage.A
从我的Lambda Python代码中,我尝试在我的存储桶( S3 :// my _S3/S3/)中创建一个日志,并抛出一个错误。当我在外部执行并生成日志时,它工作得很好。错误如下:
**[Errno 2] No such file or directory: '/var/task/s3:/my_bucket&