我正在尝试使用dask_cudf/dask读取单个大的parquet文件(size > gpu_size),但它当前正在将其读取到单个分区中,我猜测这是从文档字符串推断出的预期行为: dask.dataframe.read_parquetstorage_options=None, engine='auto', gather_statistics=None, **kwargs):
Read a Parquet file into a Dask DataFrame
,我已经根据其他字典+列表中的计算和操作数据创建了字典。每个字典中每个值/列表的长度为8项。我正在寻找一种方法,为A到N的每组数据创建14个单独的数据帧,每列包含一个不同的数据集(我已经设法使用以下代码为最后一组数据the last set of data only (速度标题为速度,输出为升力系数如果我保留i