我有一个很大的(按行数)纯文本文件,我想分割成更小的文件,也是按行数。因此,如果我的文件有大约200万行,我想将它分成10个包含200k行的文件,或者100个包含20k行的文件(加上剩余的一个文件;可以均匀分割并不重要)。
我可以在Python中很容易地做到这一点,但我想知道是否有任何种类的ninja方式使用bash和unix utils来执行此操作(而不是手动循环和计数/分割行)?
发布于 2018-06-04 09:54:50
sed -n '1,100p' filename > output.txt
发布于 2018-06-04 10:20:05
split -l 200000 mybigfile.txt
https://stackoverflow.com/questions/-100001374
复制相似问题