我有一个文件夹,里面装满了用gzip压缩的json文件(大约10 of,大部分是文本数据)。我目前的代码工作正常,但速度非常慢(想想几个小时吧): from glob import globdataframes = [pd.read_json(f, compression='gzip') for f in filenames] 我希望找到一种更快的方法来解压所有的文件,并将每个文件保存到一个pandas df中</
代码在Spyder中运行良好,但当我将其复制到Azure函数时,我得到了一个"400 Bad Request“错误,这似乎是一个语法错误。基本上,我尝试从JSON文件中读取时间序列数据,处理数据(使用pandas模块),然后应用一些数学运算。但似乎在Spyder或其他IDE中运行良好的代码无法与Azure函数一起正常运行。以下是代码的一部分: import logging
import pandas as