我正在尝试从一组压缩的CSV文件中创建一个dask数据文件。读到这个问题,dask似乎需要使用dask.distributed延迟()import dask.dataframe as ddimport pandasas pd
#Create zip_dict with key-value pairs for .zip & .csv na
我尝试在Dask数据帧的多个分区上运行一个函数。该代码需要解压元组,并且可以很好地与Pandas一起工作,但不能与Dask map_partitions一起工作。数据对应于元组列表,其中列表的长度可以变化,但元组始终具有已知的固定长度。import dask.dataframe as dd for index, row i