我有一个pyspark脚本,它现在工作得很好,我想做的是,我想为每一分钟安排该作业,为此,我使用了Apache Airflow,我为airflow创建了一个.py文件,如下所示: from airflowimport DAG
from airflow.operators.bash_operator import BashOper
我使用python3中的subprocess.popen在hdfs中放置文件或创建目录。在Linux shell上使用python3可以准确地运行它。但是当我使用crontab运行代码时,我在日志文件中得到"FileNotFoundError: errno2No to file or directory:'hdfs':'hdfs'“错误。
我确实为我的wordpress站点中的一个脚本创建了一个cron作业,它使用了一个主题。当使用cron调用该脚本时,它不能正常工作。脚本中某些函数无法识别,因为脚本看不到它们,并将它们报告为未定义的函数。Fatal error: Call to undefined function get_option()
<