首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >处理大文件的最快方法?

处理大文件的最快方法?
EN

Stack Overflow用户
提问于 2015-05-18 10:10:48
回答 2查看 61.2K关注 0票数 39

我有多个3 GB制表符分隔的文件。每个文件中有2000万行。所有行都必须独立处理,任何两行之间都没有关系。我的问题是,什么会更快?

  1. 是否逐行阅读?

将open()作为infile:用于infile中的行:

  1. 以区块为单位将文件读取到内存中并对其进行处理,例如一次250 MB?

处理并不是很复杂,我只是抓取column1中的值到List1,column2到List2等,可能需要把一些列值加在一起。

我在一个30 of内存的linux机器上使用python2.7。ASCII文本。

有没有办法同时提高速度呢?现在我使用的是前一种方法,这个过程非常慢。使用任何CSVReader模块会有帮助吗?我不需要用python来做这件事,欢迎使用任何其他语言或数据库的想法。

EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/30294146

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档