PHP数组去重有十种方法:一、array_unique函数;二、array_flip两次翻转;三、foreach配合in_array;四、array_keys与array_count_values组合;五、SplFixedArray适用于超大整数数组;六、array_reduce累积去重;七、关联数组键值双维度去重;八、严格类型自定义回调;九、Redis集合去重;十、Generator流式去重。

如果您在PHP开发中需要去除数组中的重复元素,array_unique函数看似直接有效,但其适用性取决于数组结构、数据类型及性能要求。以下是多种可行的去重方法及其具体操作步骤:
一、使用array_unique函数
array_unique函数适用于索引数组和关联数组,它依据值进行比较并保留第一个出现的键名,对字符串和数字类型处理稳定,但对多维数组或对象会失效。
1、定义原始数组:$arr = ['apple', 'banana', 'apple', 'cherry'];
2、调用函数:$result = array_unique($arr);
立即学习“PHP免费学习笔记(深入)”;
3、重置索引(可选):$result = array_values($result);
二、使用array_flip两次翻转
该方法利用键名唯一性原理,先将值转为键,再翻转回值,适合纯数值或字符串的一维数组,且不保留原始键名,执行速度通常快于array_unique。
1、定义原始数组:$arr = ['a', 'b', 'a', 'c'];
2、第一次翻转:$flipped = array_flip($arr);
3、第二次翻转:$result = array_flip($flipped);
4、重置索引(可选):$result = array_values($result);
三、使用foreach配合in_array手动遍历
此方式完全可控,支持自定义比较逻辑(如忽略大小写、截取前缀等),适用于需条件过滤或复杂判断的场景,但时间复杂度为O(n²),大数据量时效率较低。
1、初始化空数组:$result = [];
2、遍历原数组:foreach ($arr as $value) {
3、判断是否已存在:if (!in_array($value, $result, true)) {
4、追加到结果数组:$result[] = $value;
5、闭合条件与循环:}}
四、使用array_keys与array_count_values组合
该方法通过统计频次后提取键名实现去重,天然保留所有唯一值,且可顺带获取各元素出现次数,适合需要频次信息的场景,对非标量值会触发警告。
1、定义原始数组:$arr = [1, 2, 2, 3];
2、统计频次:$counts = array_count_values($arr);
3、提取键名作为去重结果:$result = array_keys($counts);
五、使用SplFixedArray配合循环(适用于超大整数数组)
当处理百万级纯整数数组且内存敏感时,SplFixedArray可减少zval开销,配合布尔标记法实现线性时间去重,但仅限非负整数且需预估最大值范围。
1、确定数组最大值:$max = max($arr);
2、初始化固定数组:$seen = new SplFixedArray($max + 1);
3、遍历并标记:foreach ($arr as $val) { if ($val >= 0) { $seen[$val] = true; } }
4、收集结果:$result = []; for ($i = 0; $i getSize(); $i++) { if ($seen[$i] === true) { $result[] = $i; } }
六、使用array_reduce累积去重
该方法以函数式风格实现,适合嵌入管道式数据流处理,逻辑清晰但递归调用带来额外开销,对超大数组可能引发栈深度问题。
1、定义原始数组:$arr = ['x', 'y', 'x'];
2、调用array_reduce:$result = array_reduce($arr, function ($carry, $item) {
3、检查是否已存在:if (!in_array($item, $carry, true)) { $carry[] = $item; }
4、返回累积结果:return $carry; }, []);
七、针对关联数组的键值双维度去重
当需按多个字段(如name和email)联合判定重复时,array_unique无法直接处理,须序列化子数组或构造唯一哈希标识。
1、准备关联数组:$users = [['name'=>'A','email'=>'a@x.com'], ['name'=>'B','email'=>'a@x.com'], ['name'=>'A','email'=>'a@x.com']];
2、生成唯一标识:$hashes = array_map(function($u) { return $u['name'] . '|' . $u['email']; }, $users);
3、去重标识:$unique_hashes = array_unique($hashes);
4、映射回原数组:$result = array_intersect_key($users, $unique_hashes);
八、使用严格类型比较的自定义回调去重
PHP 7.4+支持在array_unique中传入SORT_FLAG_CASE等标志,但更灵活的方式是使用usort配合临时去重逻辑,尤其适用于浮点数容差比较或对象属性比对。
1、定义比较函数:$tolerance = 0.001; $compare = function($a, $b) use ($tolerance) { return abs($a - $b)
2、初始化结果数组:$result = [];
3、遍历原数组:foreach ($floats as $f) { $found = false; foreach ($result as $r) { if ($compare($f, $r)) { $found = true; break; } } if (!$found) $result[] = $f; }
九、使用Redis Set临时存储实现分布式去重
在高并发Web环境中,若需跨请求共享去重状态,可借助Redis的SADD命令原子性插入,避免单机内存限制,但引入外部依赖且不保证PHP数组原有顺序。
1、连接Redis实例:$redis = new Redis(); $redis->connect('127.0.0.1', 6379);
2、定义集合名:$setKey = 'unique:session:' . session_id();
3、逐个添加并捕获返回值:$uniqueItems = []; foreach ($arr as $item) { if ($redis->sAdd($setKey, $item) === 1) { $uniqueItems[] = $item; } }
4、设置过期时间(可选):$redis->expire($setKey, 3600);
十、使用Generator实现内存友好的流式去重
处理超大文件读取或数据库游标结果集时,避免一次性加载全部数据到内存,可通过生成器逐条判断并产出唯一项。
1、定义生成器函数:function uniqueGenerator($iterable) { $seen = []; foreach ($iterable as $item) { $key = is_object($item) ? spl_object_hash($item) : serialize($item); if (!isset($seen[$key])) { $seen[$key] = true; yield $item; } } }
2、调用生成器:$gen = uniqueGenerator($hugeDataSource);
3、遍历产出结果:foreach ($gen as $unique) { /* 处理唯一项 */ }










