我有多个3 GB制表符分隔的文件。每个文件中有2000万行。所有行都必须独立处理,任何两行之间都没有关系。我的问题是,什么会更快?
将open()作为infile:用于infile中的行:
处理并不是很复杂,我只是抓取column1中的值到List1
,column2到List2
等,可能需要把一些列值加在一起。
我在一个30 of内存的linux机器上使用python2.7。ASCII文本。
有没有办法同时提高速度呢?现在我使用的是前一种方法,这个过程非常慢。使用任何CSVReader
模块会有帮助吗?我不需要用python来做这件事,欢迎使用任何其他语言或数据库的想法。
https://stackoverflow.com/questions/30294146
复制相似问题