我有几个gzip文件(每个3.5 as ),到目前为止,我使用Pandas来读取这些文件,但它非常慢,我也尝试过Dask,但它似乎不支持gzip文件中断。有没有更好的方法来快速加载这些庞大的gzip文件?
Dask和Pandas代码:
df = dd.read_csv(r'file', sample = 200000000000,compression='gzip')
我希望它能尽可能快地读取整个文件。
发布于 2020-02-11 22:32:57
一种选择是为python使用package datatable:https://github.com/h2oai/datatable
例如,使用函数fread,它可以比pandas (到gzip)的读/写速度快得多
import datatable as dt
df = dt.fread('file.csv.gz')
稍后,可以将其convert到pandas dataframe:
df1 = df.to_pandas()
目前,datatable仅为available on Linux/Mac。
https://stackoverflow.com/questions/57421905
复制相似问题