

数组去重是指从一个数组中移除重复的元素,保留唯一值的过程。例如,给定数组 [1, 2, 2, 3, 4, 4],去重后的结果为 [1, 2, 3, 4]。 在日常开发中,数组去重是一个常见的需求。无论是处理用户输入、分析数据集,还是实现某些特定算法,数组去重都能显著提升代码的效率和可读性。然而,随着数据规模的增长,不同的去重方法在性能上的差异也会愈发明显。本文将深入探讨数组去重的各种方法及其性能表现,并重点分析如何利用 Set 和哈希表实现高效的去重操作。 这篇博客主要讨论数组去重的性能,数组去重方法不细谈,有需求您可以移步到我写的数组去重方法合集,其中讨论了:**数值类去重**、**引用类去重:去除完全重复的对象元素**、**引用类去重:去除部分重复的对象元素**、**特殊情况:对象的键值对顺序不同但其内容相同**、**混合数组去重**五大类数组去重情景的各种去重方法,适用于任何场景: 常见数组去重方法有:方法 | 适用场景 | 优点 | 缺点 |
|---|---|---|---|
Set | 基础类型数组去重 | 简洁高效 | 无法处理引用类型 |
遍历 + includes | 基础类型数组去重 | 易理解 | 性能较低 |
filter() + indexOf() | 基础类型数组去重 | 通用 | 性能较低 |
reduce() | 复杂逻辑处理或混合类型数组去重 | 灵活,可扩展逻辑 | 写法稍复杂 |
JSON.stringify+set | 引用类型数组去重 | 简洁 | 无法处理嵌套或无序字段的对象 |
Map | 引用类型数组去重 | 性能较优,适合复杂数据结构 | 写法稍繁琐 |
有人做过一个测试:在处理一百万个数字的数组(有30%元素重复),使用常规方法去重,执行时间均超过30s,但是使用Set和Object哈希表用时在100ms左右。存在巨大的性能差距。 这里分享一下生成大量元素数组且重复元素比例可控的方法,这是我在别的资料里面找到的,感觉很有意思。function generateTestArray(size) {
const array = []; // 初始化一个空数组
for (let i = 0; i < size; i++) {
// 每次循环决定是否生成重复元素
if (Math.random() > 0.7) {
// 生成重复元素(30% 概率)
array.push(array[Math.floor(Math.random() * array.length)] || 0);
} else {
// 生成新的随机数(70% 概率)
array.push(Math.floor(Math.random() * size * 10));
}
}
return array;
}拓展:该方法的系统误差 生成数的范围是0-10size。比如传入5,那就生成0-50之间的整数,传入1000,就生成0-10000之间的整数,其中有300个是确定重复的。 可是在0-10000之间的剩下的700个整数也有可能重复,重复的期望是多少呢? 首先,700个整数相对于10000来说很小,所以有3个整数相同的概率极低,故忽略,那么第i个生成的整数已经存在的概率为:

m为总范围,即10000,然后线性期望相加得到重复的数字数量为:

n是生成的数字总数,计算结果约为24.465个,即随机生成的重复率为:24.465/700,约为3.5%,**即该方法生成数字的实际重复率约为:33.5%。** 当然,其实真正的存在概率是:
综合期望是:

但是结果和近似估算几乎没差距,就不展开了。如果想降低这个系统误差,直接扩大size后面的乘数即可。
拓展:排序后去重 这种去重方法的时间复杂度为O(nlogn),额外开销主要由排序操作决定。但是这种方法只能用来进行基础数据类型的去重。同时会改变原始数组的顺序,在部分场景的使用受限。
为什么呢? 首先我们知道,遍历 + includes、filter() + indexOf()、reduce()只有写法上存在优雅与否,但是本质都是双循环,均为O(n²)复杂度,关键就在于Set和Object哈希表去重特别高效,接下来我们来探究一下Set和Object哈希表去重高效的原因。 Set 是 ES6 引入的一种集合数据结构,专门用于存储唯一值。它的底层实现基于哈希表,因此插入和查找的时间复杂度接近 O(1)。 Object哈希表就不用说了,本质就是利用Object键的映射创建了一个哈希表,只是没有哈希函数,且无法兼容引用类型(可以通过JSON.stringify()处理后兼容)。V8引擎中,Set使用哈希表和红黑树的组合实现,据测试Set的效率要略优于Object哈希表。 Set 的高效性源于其底层的哈希表实现。以下是关键步骤: 这种机制使得 Set 能够快速判断某个值是否已经存在,从而实现高效的去重。 我们来看一个特殊的例子:function deduplicateWeirdValues(array) {
return [...new Set(array)];
}
const weirdArray = [0, -0, NaN, NaN, undefined, null, false, 0, "0"];
console.log(deduplicateWeirdValues(weirdArray));
// 输出: [0, NaN, undefined, null, false, "0"] 在这样一个去重案例中,NaN !== NaN, 同时 0 == "0",但是Set只保留了一个NaN,同时又区分开了 0 与 "0" ,这是常规方法所做不到的:要么会保留所有的NaN,要么无法区分 0 和 "0"。 仅限于基础数据类型的数组去重,如果涉及到引用类型的数组去重,一般需要结合JSON.stringify()函数(有局限性)或者设计对比函数来实现。详情可以参考这篇文章:全网最全情景,深入浅出解析JavaScript数组去重:数值与引用类型的全面攻略
数组去重过程中,本质可以简化为遍历原数组,然后通过去重算法判断是否重复,重复就去除,不重复就添加,所以综合复杂度一定是O(n)\*x,x是去重算法的时间复杂度。Set和Object哈希表去重的时间复杂度正好是O(1),如果还要进一步优化,就需要再在去重算法上下功夫了。 只有锻炼思维才能可持续地解决问题,只有思维才是真正值得学习和分享的核心要素。如果这篇博客能给您带来一点帮助,麻烦您点个赞支持一下,还可以收藏起来以备不时之需,有疑问和错误欢迎在评论区指出~