答案:JavaScript数组去重推荐使用[...new Set(arr)],性能最优且简洁。该方法利用Set的唯一性,结合扩展运算符直接构造新数组,时间复杂度O(n),优于filter+Set、indexOf等方案;处理对象数组时可配合Map或findIndex按键去重,但需注意性能损耗;综合考虑数据类型、规模与兼容性,基本类型首选Set,大数组避免嵌套遍历,代码应优先保证可读性与效率。

JavaScript数组去重是开发中常见的需求,尤其在处理用户输入、接口返回数据时。如何高效地去除重复项,不仅影响代码可读性,也关系到性能表现。filter结合Set是一种简洁写法,但是否最优?我们来深入分析。
filter + Set 实现去重的原理
有人尝试用 filter 配合 Set 来实现去重,典型写法如下:
const arr = [1, 2, 2, 3, 4, 4, 5];const seen = new Set();
const unique = arr.filter(item => !seen.has(item) && seen.add(item));
这段代码利用了 Set 的唯一性特性。filter 每次判断 item 是否已存在于 Set 中,若不存在,则加入 Set 并返回 true,保留该元素;否则过滤掉。
这种方式逻辑清晰,利用了 Set 的 O(1) 查找优势,整体时间复杂度为 O(n),效率较高。而且代码简洁,适合大多数场景。
立即学习“Java免费学习笔记(深入)”;
常见去重方法对比
除了 filter + Set,还有多种实现方式,各有优劣:
- Set 直接构造:[...new Set(arr)] —— 最简洁,性能最好,推荐首选
- indexOf 去重:arr.filter((item, index) => arr.indexOf(item) === index) —— 兼容性好,但嵌套遍历导致 O(n²),大数据量慢
- Map 记录:使用 Map 存储已见值,适合对象数组或复杂类型判断
- reduce + includes:累加非重复项,语义清晰但 includes 同样是 O(n)
性能关键:数据类型与规模
不同方法在不同类型数据下表现差异明显:
对于基本类型(数字、字符串),new Set 配合扩展运算符 是最快的:
const unique = [...new Set(arr)];它内部高度优化,避免手动循环开销。
当处理对象数组时,需基于特定属性去重。例如根据 id 去除重复对象:
const uniqueBy = arr.filter((obj, index, self) =>index === self.findIndex(o => o.id === obj.id)
);
这种写法可读性强,但 findIndex 导致性能下降,大数据建议改用 Map 缓存 id。
实际建议与总结
filter + Set 写法虽然巧妙,但不如直接使用 [...new Set(arr)] 简洁高效。后者一行代码解决,浏览器原生优化充分。
在选择去重方法时,考虑以下几点:
- 数据类型:基本类型优先用 Set;对象数组可用 Map 或 filter + find 组合
- 数据量:小数组随意选;大数组避免 indexOf、includes 等 O(n) 查找
- 兼容性:IE 不支持扩展运算符或 Set,需降级处理
- 可读性:代码应清晰表达意图,避免过度“聪明”的写法
基本上就这些。多数情况下,直接用 Set 构造唯一数组是最优解,简单又快。filter + Set 虽然可行,但多了一层函数调用,略显冗余。不复杂但容易忽略的是:工具要选对,而不是写得花。











