到目前为止,我发现的唯一候选是合并排序:您可以实现该算法,使其能够在每次合并时扫描数据集,而无需同时将所有数据保存在主内存中。我所想到的合并排序的变化在这篇文章中在磁带驱动器的使用部分中进行了描述。我认为这是一个很好的解决方案(复杂度为O( not (N),但我很想知道是否有其他(可能更快)的排序算法可以工作在不适合主存的大型数
我试图合并两个列表,因为我有一个18个城市的列表,所以我增加了一个序列,最多可以计算到18个城市。这是我的转变:
基本上,我添加了city_ ID -序列,以便从我的文本文件ID开始执行最多为18的序列,有一个最多为18的字段"ID“。这个想法是在合并"merge 2”时,与所有具有相同ID的东西<em