Java集合去重应构造无重复新集合而非原地删除:①用LinkedHashSet保持顺序去重;②Stream.distinct()链式处理;③toMap按字段去重;④禁止遍历时直接remove。

Java中对集合去重,核心在于利用集合自身特性(如 Set 不允许重复元素)或借助工具类/流式操作实现。关键不是“删重复”,而是“构造一个不含重复的新集合”——这是最自然、高效且安全的做法。
用 Set 直接接收,一步去重
这是最常用、最简洁的方式:把原集合(如 List)传给 HashSet 或 LinkedHashSet 构造器。
-
HashSet:去重且不保证顺序,适合只关心元素唯一性的场景 -
LinkedHashSet:去重并保持插入顺序,推荐用于多数业务场景(如展示列表去重)
示例:
ListSet
使用 Stream.distinct()(JDK 8+)
适用于需要链式处理的场景,比如去重后还要过滤、映射或收集为其他类型。
立即学习“Java免费学习笔记(深入)”;
-
distinct()基于元素的equals()和hashCode()判断是否重复 - 若处理对象集合,确保自定义类正确重写了这两个方法
- 顺序由原始流决定(如
list.stream()保持插入顺序)
示例:
ListList
按对象字段去重(如 id、name)
当需根据某字段(而非整个对象)判断重复时,不能直接用 distinct() 或 Set,需手动控制。
- 用
Collectors.toMap():以去重字段为 key,对象为 value,自动覆盖重复 key - 用
filter()+ConcurrentHashMap::putIfAbsent实现无状态去重(适合并行流)
示例(按 id 去重):
ListList
.collect(Collectors.toMap(User::getId, u -> u, (u1, u2) -> u1))
.values()
.stream()
.collect(Collectors.toList());
注意:别在遍历时直接删 List 元素
用 for 循环或增强 for 遍历 List 并调用 remove(),极易引发 ConcurrentModificationException 或漏删——这不是去重的合理方式。
- 真要原地修改,改用
Iterator.remove() - 但更推荐“创建新集合”,语义清晰、线程安全、不易出错










