首页 > 后端开发 > C++ > 正文

C++如何使用STL算法实现数据去重

P粉602998670
发布: 2025-09-23 18:44:01
原创
298人浏览过
C++中STL去重常用方法有三种:1. std::sort结合std::unique,时间复杂度O(N log N),适用于允许排序且内存受限场景;2. std::set基于红黑树,自动排序去重,插入复杂度O(N log N),适合需有序结果的情况;3. std::unordered_set基于哈希表,平均复杂度O(N),最快但无序,适合大数据量且无需保序的去重。对自定义类型需重载operator<或提供哈希函数与operator==以确保正确比较和散列,否则会导致编译错误或逻辑异常。常见陷阱包括误以为std::unique直接删除元素(实际需配合erase)、迭代器失效、哈希与相等判断不一致及未预留内存导致性能下降。综合选择应根据数据规模、顺序要求和性能需求权衡。

c++如何使用stl算法实现数据去重

在C++中,利用STL(标准模板库)实现数据去重,最常用且高效的方式是结合std::sortstd::unique,或者直接利用基于哈希或比较的容器如std::setstd::unordered_set。这几种方法各有侧重,具体选择取决于数据的特性、对性能的需求以及是否需要保持原始顺序等因素。

解决方案

对于std::vectorstd::list这类序列容器,一个非常经典的去重模式是先对其进行排序,然后利用std::unique算法。std::unique会将相邻的重复元素移动到范围的末尾,并返回一个指向新逻辑末尾的迭代器。但需要注意的是,std::unique并不会真正删除元素,它只是重新排列。所以,我们通常会结合容器的erase方法来完成实际的删除操作。

例如,对于一个std::vector<int>

立即学习C++免费学习笔记(深入)”;

#include <iostream>
#include <vector>
#include <algorithm> // For std::sort and std::unique
#include <set>       // For std::set approach
#include <unordered_set> // For std::unordered_set approach

void printVector(const std::vector<int>& vec, const std::string& msg) {
    std::cout << msg;
    for (int x : vec) {
        std::cout << x << " ";
    }
    std::cout << std::endl;
}

int main() {
    std::vector<int> data = {1, 3, 2, 4, 3, 1, 5, 2, 6, 4};
    printVector(data, "原始数据: ");

    // 方法一:使用 std::sort + std::unique
    // 这种方法会改变原始顺序,但效率高
    std::vector<int> data_sorted_unique = data; // 复制一份,不影响原始data
    std::sort(data_sorted_unique.begin(), data_sorted_unique.end());
    // std::unique 将重复元素移动到末尾,并返回新逻辑末尾的迭代器
    auto last = std::unique(data_sorted_unique.begin(), data_sorted_unique.end());
    // 真正删除重复元素
    data_sorted_unique.erase(last, data_sorted_unique.end());
    printVector(data_sorted_unique, "std::sort + std::unique 去重后: ");

    // 方法二:使用 std::set (保持排序且去重)
    // 这种方法会创建新的排序好的去重集合
    std::set<int> unique_set(data.begin(), data.end());
    std::vector<int> data_from_set(unique_set.begin(), unique_set.end());
    printVector(data_from_set, "std::set 去重后: ");

    // 方法三:使用 std::unordered_set (不保持排序,但去重,通常最快)
    // 这种方法会创建新的不保证顺序的去重集合
    std::unordered_set<int> unique_unordered_set(data.begin(), data.end());
    std::vector<int> data_from_unordered_set(unique_unordered_set.begin(), unique_unordered_set.end());
    printVector(data_from_unordered_set, "std::unordered_set 去重后: ");

    return 0;
}
登录后复制

STL去重算法的效率考量与选择

选择STL去重算法时,效率和数据结构特性是核心考量点。我个人在做性能敏感的系统时,会特别关注这一点。

std::sort结合std::unique的方案,其时间复杂度主要由排序决定,通常是O(N log N),其中N是元素的数量。std::unique本身是O(N)的线性操作。这种方法适用于需要原地去重(如果允许修改原始序列顺序)且元素数量不是特别庞大的场景。它的优点是内存开销相对较小,不需要额外创建大型的辅助数据结构,直接在原数据上操作。不过,它会改变元素的相对顺序,这在某些应用中可能是不可接受的。

std::set是基于红黑树实现的,它在插入元素时会自动进行排序和去重。将所有元素插入std::set的时间复杂度是O(N log N)。它的优点是能自然地得到一个排序且去重后的集合,并且插入操作本身就是线程安全的(对于单个set实例的并发插入需要外部同步,但内部结构保证了操作的原子性)。但它会引入额外的内存开销,并且构建完成后需要将数据再复制回vector(如果需要vector类型的结果)。

std::unordered_set是基于哈希表实现的,它在插入元素时通过哈希函数快速定位元素,从而实现去重。在理想情况下(哈希冲突少),插入N个元素的时间复杂度平均是O(N)。这是三种方法中理论上最快的,尤其是在N非常大的时候。然而,最坏情况下(大量哈希冲突),其性能可能退化到O(N^2)。和std::set一样,它也需要额外的内存开销,并且不保证元素的顺序。如果对元素顺序没有要求,且希望追求极致的去重速度,std::unordered_set通常是我的首选。

处理自定义类型数据去重:你需要知道的比较器与哈希函数

当我们要对自定义类型(比如一个structclass)的数据进行去重时,STL算法和容器需要知道如何“比较”这些对象是否相等,或者如何为它们生成“哈希值”。这就像告诉算法:“嘿,这两个MyObject实例,在我看来是同一个东西。”

创客贴设计
创客贴设计

创客贴设计,一款智能在线设计工具,设计不求人,AI助你零基础完成专业设计!

创客贴设计 150
查看详情 创客贴设计

对于std::sortstd::unique,以及std::set这类基于比较的容器,它们依赖于元素的小于运算符 (operator<)。如果你没有为你的自定义类型定义operator<,或者定义了一个不符合严格弱序(strict weak ordering)的operator<,那么这些算法和容器就无法正常工作,甚至可能导致未定义行为。一个替代方案是提供一个自定义的比较器(comparator),通常是一个函数对象(functor)或Lambda表达式。

struct Person {
    std::string name;
    int age;

    // 为 std::sort, std::unique, std::set 提供小于运算符
    // 假设我们认为名字和年龄都相同的人是同一个
    bool operator<(const Person& other) const {
        if (name != other.name) {
            return name < other.name;
        }
        return age < other.age;
    }

    // 为 std::unique 提供相等运算符(虽然 std::unique 默认用 operator==,
    // 但如果想自定义相等逻辑,可以传入自定义比较器)
    bool operator==(const Person& other) const {
        return name == other.name && age == other.age;
    }
};

// 示例:使用自定义比较器去重
struct PersonAgeComparator {
    bool operator()(const Person& a, const Person& b) const {
        return a.age < b.age; // 仅按年龄排序
    }
};

// 假设我们认为名字相同的人就是同一个,年龄不重要
struct PersonNameEquality {
    bool operator()(const Person& a, const Person& b) const {
        return a.name == b.name;
    }
};
登录后复制

对于std::unordered_set,它不依赖于operator<,而是依赖于两个关键点:

  1. 相等运算符 (operator==)unordered_set需要知道如何判断两个元素是否“相等”。
  2. 哈希函数 (std::hash):它需要一个方法来将你的自定义类型映射到一个哈希值(size_t类型),这样才能高效地将元素放入哈希表的桶中。

你可以通过两种方式提供哈希函数:

  • 特化std::hash模板:这是更C++标准库风格的做法。
  • 提供自定义哈希函数对象:作为unordered_set的模板参数传入。
// 续上 Person struct 定义

// 为 std::unordered_set 特化 std::hash
namespace std {
    template <>
    struct hash<Person> {
        size_t operator()(const Person& p) const {
            // 组合多个成员的哈希值,避免简单叠加可能导致的冲突
            // 这是一个常见的哈希组合技巧,例如boost::hash_combine
            size_t h1 = std::hash<std::string>{}(p.name);
            size_t h2 = std::hash<int>{}(p.age);
            return h1 ^ (h2 << 1); // 简单的组合方式
        }
    };
}

int main_custom_types() {
    std::vector<Person> people = {
        {"Alice", 30}, {"Bob", 25}, {"Alice", 30}, {"Charlie", 35}, {"Bob", 25}
    };

    // 使用 std::set 去重
    std::set<Person> unique_people_set(people.begin(), people.end());
    std::cout << "Set去重后:" << std::endl;
    for (const auto& p : unique_people_set) {
        std::cout << p.name << " " << p.age << std::endl;
    }

    // 使用 std::unordered_set 去重
    std::unordered_set<Person> unique_people_unordered_set(people.begin(), people.end());
    std::cout << "Unordered_set去重后:" << std::endl;
    for (const auto& p : unique_people_unordered_set) {
        std::cout << p.name << " " << p.age << std::endl;
    }

    return 0;
}
登录后复制

定义这些比较或哈希逻辑是处理自定义类型去重的关键步骤,如果忽略了,编译器会报错,或者程序行为会不符合预期。

去重操作中可能遇到的陷阱与常见错误分析

在实际使用STL进行数据去重时,我遇到过一些新手常犯的错误,甚至我自己偶尔也会不小心踩坑。了解这些可以帮助我们写出更健壮的代码。

一个非常经典的陷阱是误解std::unique的行为。很多人以为std::unique会直接从容器中删除重复元素,但事实并非如此。它仅仅是将重复元素“移动”到范围的末尾,并返回一个迭代器,指向第一个重复元素的“新位置”。如果你不接着调用容器的erase方法,那些“重复”的元素仍然存在于容器中,只是被移到了后面。所以,v.erase(std::unique(v.begin(), v.end()), v.end());这个模式是必须记住的。

另一个常见问题对自定义类型没有正确实现比较或哈希函数。如果operator<不满足严格弱序,或者operator==std::hash的实现不一致(即两个对象被operator==判断为相等,但它们的哈希值却不同),那么基于这些函数的STL容器或算法就可能产生错误的结果,比如无法正确去重,或者哈希表性能急剧下降。这通常需要仔细检查你的自定义类型定义。

性能考虑不足也是一个问题。例如,在std::vector上频繁进行erase操作,尤其是在循环中删除元素,可能会导致大量的元素移动和内存重新分配,从而严重影响性能。虽然std::unique结合erase通常是高效的,但在某些极端情况下,例如需要保留原始顺序且元素数量巨大时,如果选择std::vector作为中间容器,可能不如先将元素插入std::setstd::unordered_set,再转回vector来得高效。

迭代器失效是另一个需要警惕的问题。当使用std::vectorstd::list等容器进行修改操作(如erase)时,可能会导致现有迭代器失效。std::unique返回的迭代器是有效的,但如果你在去重过程中,例如,在std::list上迭代并手动删除元素,就需要特别小心迭代器的更新。

最后,内存分配与预留也值得关注。如果你知道最终去重后大约会有多少元素,可以考虑为std::vectorstd::unordered_set预先分配内存(使用reserve()),这可以减少动态内存分配的开销,尤其是在处理大量数据时,对性能会有显著提升。std::unordered_setrehash操作也可能带来性能峰值,通过reserve或调整load_factor可以对其进行优化。

以上就是C++如何使用STL算法实现数据去重的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号