我有一个很大的数据集,我想洗牌。如果我可以同时打开几个文件(例如hdf5,numpy),按时间顺序遍历我的数据,并将每个数据点随机分配到其中一个堆中(然后对每个堆进行混洗),那就太好了。
我真的没有在python中处理数据的经验,所以我不确定是否有可能在不将文件的其余内容保存在内存中的情况下将其写入文件(我一直在使用np.save和savez,但收效甚微)。
在h5py或numpy中,这是可能的吗?如果可能,我该如何做?
发布于 2019-07-09 23:26:39
https://stackoverflow.com/questions/56955283
复制相似问题