在Java中如何对集合去重_Java集合去重思路总结

Java集合去重应构造无重复新集合而非原地删除:①用LinkedHashSet保持顺序去重;②Stream.distinct()链式处理;③toMap按字段去重;④禁止遍历时直接remove。

Java中对集合去重,核心在于利用集合自身特性(如 Set 不允许重复元素)或借助工具类/流式操作实现。关键不是“删重复”,而是“构造一个不含重复的新集合”——这是最自然、高效且安全的做法。

用 Set 直接接收,一步去重

这是最常用、最简洁的方式:把原集合(如 List)传给 HashSetLinkedHashSet 构造器。

  • HashSet:去重且不保证顺序,适合只关心元素唯一性的场景
  • LinkedHashSet:去重并保持插入顺序,推荐用于多数业务场景(如展示列表去重)

示例:

List list = Arrays.asList("a", "b", "a", "c");
Set uniqueSet = new LinkedHashSet(list); // ["a", "b", "c"]

使用 Stream.distinct()(JDK 8+)

适用于需要链式处理的场景,比如去重后还要过滤、映射或收集为其他类型。

  • distinct() 基于元素的 equals()hashCode() 判断是否重复
  • 若处理对象集合,确保自定义类正确重写了这两个方法
  • 顺序由原始流决定(如 list.stream() 保持插入顺序)

示例:

List nums = Arrays.asList(1, 2, 2, 3, 1);
List uniqueList = nums.stream().distinct().collect(Collectors.toList());

按对象字段去重(如 id、name)

当需根据某字段(而非整个对象)判断重复时,不能直接用 distinct()Set,需手动控制。

  • Collectors.toMap():以去重字段为 key,对象为 value,自动覆

    盖重复 key
  • filter() + ConcurrentHashMap::putIfAbsent 实现无状态去重(适合并行流)

示例(按 id 去重):

List users = ...;
List uniqueById = users.stream()
  .collect(Collectors.toMap(User::getId, u -> u, (u1, u2) -> u1))
  .values()
  .stream()
  .collect(Collectors.toList());

注意:别在遍历时直接删 List 元素

用 for 循环或增强 for 遍历 List 并调用 remove(),极易引发 ConcurrentModificationException 或漏删——这不是去重的合理方式。

  • 真要原地修改,改用 Iterator.remove()
  • 但更推荐“创建新集合”,语义清晰、线程安全、不易出错