Несколько методов дедупликации списков
Здесь я поделюсь несколькими методами дедупликации списка, это можно расценивать как сортировку, если будут ошибки, сообщите пожалуйста.
1. Потокиdistinct()
метод
distinct()
— это метод, предоставляемый Stream в Java 8, который возвращает поток, состоящий из различных элементов потока.distinct()
использоватьhashCode()
иeqauls()
способ получения различных элементов. Следовательно, классы, которые необходимо дедуплицировать, должны реализовыватьhashCode()
иequals()
метод. Другими словами, мы можем настроитьhashCode()
иequals()
метод для достижения дедупликации некоторых особых потребностей.
distinct()
Объявление метода выглядит следующим образом:
Stream<T> distinct();
1.1 ДляString
дедупликация списка
так какString
класс был переопределенequals()
иhashCode()
метод, так что вы можете дедуплицировать успех.
@Test
public void listDistinctByStreamDistinct() {
// 1. 对于 String 列表去重
List<String> stringList = new ArrayList<String>() {{
add("A");
add("A");
add("B");
add("B");
add("C");
}};
out.print("去重前:");
for (String s : stringList) {
out.print(s);
}
out.println();
stringList = stringList.stream().distinct().collect(Collectors.toList());
out.print("去重后:");
for (String s : stringList) {
out.print(s);
}
out.println();
}
Результат выглядит следующим образом:
去重前:AABBC
去重后:ABC
1.2 Дедупликация для списка классов сущностей
Примечание: в коде мы используемLombok
плагин@Data
Аннотация, может быть автоматически перезаписанаequals()
а такжеhashCode()
метод.
/**
* 定义一个实体类
*/
@Data
public class Student {
private String stuNo;
private String name;
}
@Test
public void listDistinctByStreamDistinct() throws JsonProcessingException {
ObjectMapper objectMapper = new ObjectMapper();
// 1. 对于 Student 列表去重
List<Student> studentList = getStudentList();
out.print("去重前:");
out.println(objectMapper.writeValueAsString(studentList));
studentList = studentList.stream().distinct().collect(Collectors.toList());
out.print("去重后:");
out.println(objectMapper.writeValueAsString(studentList));
}
Результат выглядит следующим образом:
去重前:[{"stuNo":"001","name":"Tom"},{"stuNo":"002","name":"Mike"},{"stuNo":"001","name":"Tom"}]
去重后:[{"stuNo":"001","name":"Tom"},{"stuNo":"002","name":"Mike"}]
2. СогласноList<Object>
серединаObject
Дедупликация свойства
2.1 Создать новый список
@Test
public void distinctByProperty1() throws JsonProcessingException {
// 这里第一种方法我们通过新创建一个只有不同元素列表来实现根据对象某个属性去重
ObjectMapper objectMapper = new ObjectMapper();
List<Student> studentList = getStudentList();
out.print("去重前 :");
out.println(objectMapper.writeValueAsString(studentList));
studentList = studentList.stream().distinct().collect(Collectors.toList());
out.print("distinct去重后:");
out.println(objectMapper.writeValueAsString(studentList));
// 这里我们引入了两个静态方法,以及通过 TreeSet<> 来达到获取不同元素的效果
// 1. import static java.util.stream.Collectors.collectingAndThen;
// 2. import static java.util.stream.Collectors.toCollection;
studentList = studentList.stream().collect(
collectingAndThen(
toCollection(() -> new TreeSet<>(Comparator.comparing(Student::getName))), ArrayList::new)
);
out.print("根据名字去重后 :");
out.println(objectMapper.writeValueAsString(studentList));
}
Результат выглядит следующим образом:
去重前 :[{"stuNo":"001","name":"Tom"},{"stuNo":"001","name":"Tom"},{"stuNo":"003","name":"Tom"}]
distinct去重后:[{"stuNo":"001","name":"Tom"},{"stuNo":"003","name":"Tom"}]
根据名字去重后 :[{"stuNo":"001","name":"Tom"}]
2.2 Пройтиfilter()
метод
Сначала мы создаем метод какStream.filter()
параметр, возвращаемый тип которогоPredicate
, принцип заключается в том, чтобы определить, может ли элемент быть добавлен кSet
Иди, код такой:
private static <T> Predicate<T> distinctByKey(Function<? super T, ?> keyExtractor) {
Set<Object> seen = ConcurrentHashMap.newKeySet();
return t -> seen.add(keyExtractor.apply(t));
}
Используйте следующим образом:
@Test
public void distinctByProperty2() throws JsonProcessingException {
// 这里第二种方法我们通过过滤来实现根据对象某个属性去重
ObjectMapper objectMapper = new ObjectMapper();
List<Student> studentList = getStudentList();
out.print("去重前 :");
out.println(objectMapper.writeValueAsString(studentList));
studentList = studentList.stream().distinct().collect(Collectors.toList());
out.print("distinct去重后:");
out.println(objectMapper.writeValueAsString(studentList));
// 这里我们将 distinctByKey() 方法作为 filter() 的参数,过滤掉那些不能加入到 set 的元素
studentList = studentList.stream().filter(distinctByKey(Student::getName)).collect(Collectors.toList());
out.print("根据名字去重后 :");
out.println(objectMapper.writeValueAsString(studentList));
}
Результат выглядит следующим образом:
去重前 :[{"stuNo":"001","name":"Tom"},{"stuNo":"001","name":"Tom"},{"stuNo":"003","name":"Tom"}]
distinct去重后:[{"stuNo":"001","name":"Tom"},{"stuNo":"003","name":"Tom"}]
根据名字去重后 :[{"stuNo":"001","name":"Tom"}]
3. Резюме
Выше приведены несколько методов дедупликации списков, которыми я хочу поделиться.Конечно, здесь нет более подробного анализа производительности. Если есть какие-либо ошибки, пожалуйста, дайте мне знать.
Кодовый адрес:github