基于优化理论的子集均值均衡分配策略

花韻仙語
发布: 2025-09-20 10:45:01
原创
197人浏览过

基于优化理论的子集均值均衡分配策略

本文旨在探讨如何将一个超集中的元素无放回地分配到N个预设大小的子集中,以使每个子集的均值尽可能接近超集的总均值。我们将介绍将此问题建模为集合划分问题,并利用混合整数线性规划(MILP)库PuLP来求解精确解。同时,文章还将讨论启发式算法Karmarkar-Karp及其局限性,并提供不同规模问题下的性能考量与优化策略,帮助读者在实际应用中选择最适合的分配方法。

1. 问题定义与目标

给定一个包含m个元素的超集(元素为实数,通常是正浮点数),我们需要将其无放回地划分为n个子集。每个子集 $s_i$ 都有一个预设的元素数量 $x_i$,且所有子集元素数量之和等于超集总元素数量 $\sum x_i = m$。我们的目标是使每个子集 $s_i$ 的均值 $\text{mean}(si)$ 尽可能接近超集 $s{total}$ 的均值 $\text{mean}(s_{total})$。

形式上,我们希望最小化一个误差函数,例如所有子集均值与超集均值之间绝对差的总和: $$ \text{Minimize} \sum_{i=1}^{N} |\text{mean}(Si) - \text{mean}(S{total})| $$ 由于每个子集的元素数量 $x_i$ 是固定的,最小化均值误差等价于最小化子集总和与目标总和的绝对差。目标总和为 $xi \times \text{mean}(S{total})$。

示例1:完美分配

假设超集 $S_{total} = {100 \times 5, 101 \times 10, 102 \times 5}$,总均值为 101。需要创建三个子集,分别包含 2、4、14 个元素。一个完美分配的例子是:

  • $A = {100, 102}$,均值 = 101
  • $B = {100, 102, 100, 102}$,均值 = 101
  • $C = {100 \times 2, 101 \times 10, 102 \times 2}$,均值 = 101

每个子集的均值都精确等于超集均值。

示例2:最佳近似分配

假设超集 $S_{total} = {100 \times 5, 103 \times 10, 104 \times 5}$,总均值为 102.5。需要创建三个子集,分别包含 2、4、14 个元素。在这种情况下,可能无法实现完美分配。一个较优的近似分配可能是:

  • $A = {100, 104}$,均值 = 102
  • $B = {100, 103, 103, 104}$,均值 = 102.5
  • $C = {100 \times 2, 103 \times 7, 104 \times 3}$,均值 ≈ 102.5714

2. 数学模型与问题归类:集合划分问题

这类问题在数学和计算机科学中属于集合划分问题 (Set Partitioning Problem) 的范畴。它是一个经典的组合优化问题,通常是NP-hard问题。其核心在于将一个集合的元素划分到多个子集中,同时满足特定的约束和优化目标。

对于我们的问题,每个超集元素必须且只能被分配到一个子集,且每个子集的大小是预定的。因此,我们可以将其建模为混合整数线性规划 (Mixed Integer Linear Programming, MILP) 问题,以寻求精确的最优解。

3. 基于线性规划的精确解法

我们可以利用Python中的PuLP库来构建和求解MILP模型。PuLP是一个用于描述优化问题的库,可以与各种线性规划求解器(如CBC、GLPK、Gurobi等)集成。

核心思想:

集简云
集简云

软件集成平台,快速建立企业自动化与智能化

集简云22
查看详情 集简云
  1. 决策变量: 定义一组二进制变量 $x_{ij}$,表示超集中的第 $j$ 个元素是否被分配给第 $i$ 个子集。
  2. 目标函数: 最小化所有子集与超集均值(或总和)的绝对误差之和。
  3. 约束条件:
    • 每个超集元素必须分配到且仅分配到一个子集。
    • 每个子集的元素数量必须等于其预设大小。
    • 绝对误差的线性化转换。

3.1 使用PuLP实现精确解

以下代码演示了如何使用PuLP解决上述问题:

from statistics import mean
import pulp

def solve_set_partitioning(superset_data, set_sizes_data):
    """
    使用PuLP解决集合划分问题,使子集均值接近超集均值。

    Args:
        superset_data (list): 超集中的元素列表。
        set_sizes_data (list): 每个子集所需的元素数量列表。

    Returns:
        tuple: (list of lists, list of floats) 分配后的子集列表及其均值。
    """
    superset = superset_data
    set_sizes = set_sizes_data
    N = len(set_sizes)

    # 验证输入
    if sum(set_sizes) != len(superset):
        raise ValueError("所有子集大小之和必须等于超集元素总数。")

    superset_mean = mean(superset)

    # 创建问题实例
    set_partitioning_model = pulp.LpProblem("Set_Partitioning_Model", pulp.LpMinimize)

    # 1. 定义决策变量
    # covering[s][i] 是一个二进制变量,如果超集中的第i个元素被分配给子集s,则为1,否则为0。
    covering = {}
    for s in range(N):
        vals = []
        for i, v in enumerate(superset):
            vals.append(
                pulp.LpVariable(
                    f"assign_s{s}_idx{i:02}_val{v}",
                    lowBound=0,
                    upBound=1,
                    cat=pulp.LpInteger,
                )
            )
        covering[s] = vals

    # 定义表示每个子集总和误差的变量
    abs_sum_errs = []
    for s_i in range(N):
        set_sum_err_abs = pulp.LpVariable(f"set_{s_i}_sum_error_abs", lowBound=0)
        abs_sum_errs.append(set_sum_err_abs)

    # 2. 定义目标函数
    # 最小化所有子集总和与目标总和的绝对误差之和。
    # 目标总和 = 子集大小 * 超集均值
    set_partitioning_model += pulp.lpSum(abs_sum_errs), "Minimize_Absolute_Sum_Errors"

    # 3. 添加约束
    for s_i, st_vars in covering.items():
        # 计算当前子集s_i的实际元素值之和
        current_set_sum = pulp.lpSum([p * superset[idx] for idx, p in enumerate(st_vars)])

        # 计算子集s_i的目标总和
        target_set_sum = set_sizes[s_i] * superset_mean

        # 定义子集s_i的总和误差 (实际总和 - 目标总和)
        set_sum_err = pulp.LpVariable(f"set_{s_i}_sum_error")
        set_partitioning_model += set_sum_err == (current_set_sum - target_set_sum), \
                                  f"Sum_Error_Definition_Set_{s_i}"

        # 将绝对误差转换为线性约束: |x| <= y 等价于 x <= y 和 -x <= y
        set_partitioning_model += abs_sum_errs[s_i] >= set_sum_err, \
                                  f"Abs_Error_Constraint_Pos_Set_{s_i}"
        set_partitioning_model += abs_sum_errs[s_i] >= -set_sum_err, \
                                  f"Abs_Error_Constraint_Neg_Set_{s_i}"

    # 约束: 每个子集的大小必须符合预设
    for n, st_vars in zip(set_sizes, covering.values()):
        set_partitioning_model += pulp.lpSum(st_vars) == n, \
                                  f"Set_Size_Constraint_{n}"

    # 约束: 超集中的每个元素只能被使用一次
    # 遍历超集中的每个元素(通过其索引),确保它在所有子集变量中总和为1
    for idx_in_superset in range(len(superset)):
        # 获取所有子集对应此元素的变量
        element_assignment_vars = [covering[s][idx_in_superset] for s in range(N)]
        set_partitioning_model += (
            pulp.lpSum(element_assignment_vars) == 1,
            f"Element_{idx_in_superset}_Used_Once",
        )

    # 4. 求解模型
    set_partitioning_model.solve()

    # 5. 解析结果
    if set_partitioning_model.status != pulp.LpStatusOptimal:
        print(f"求解状态: {pulp.LpStatus[set_partitioning_model.status]}")
        return [], []

    allocated_subsets = []
    subset_means = []
    for k, v in covering.items():
        current_subset = []
        for idx, var in enumerate(v):
            if var.value() == 1:
                current_subset.append(superset[idx])
        allocated_subsets.append(current_subset)
        if current_subset:
            subset_means.append(mean(current_subset))
        else:
            subset_means.append(0) # 或根据实际情况处理空子集

    return allocated_subsets, subset_means, superset_mean

# 示例1:完美分配
print("--- 示例1:完美分配 ---")
superset_ex1 = [100]*5 + [101]*10 + [102]*5
set_sizes_ex1 = [2, 4, 14]
subsets_ex1, means_ex1, total_mean_ex1 = solve_set_partitioning(superset_ex1, set_sizes_ex1)
print(f"超集均值: {total_mean_ex1}")
for i, subset in enumerate(subsets_ex1):
    print(f"子集 {i}: {subset}, 均值: {means_ex1[i]}")

# 示例2:最佳近似分配
print("\n--- 示例2:最佳近似分配 ---")
superset_ex2 = [100]*5 + [103]*10 + [104]*5
set_sizes_ex2 = [2, 4, 14]
subsets_ex2, means_ex2, total_mean_ex2 = solve_set_partitioning(superset_ex2, set_sizes_ex2)
print(f"超集均值: {total_mean_ex2}")
for i, subset in enumerate(subsets_ex2):
    print(f"子集 {i}: {subset}, 均值: {means_ex2[i]}")
登录后复制

示例1输出:

--- 示例1:完美分配 ---
超集均值: 101.0
子集 0: [101, 101], 均值: 101.0
子集 1: [100, 100, 102, 102], 均值: 101.0
子集 2: [100, 100, 100, 101, 101, 101, 101, 101, 101, 101, 101, 102, 102, 102], 均值: 101.0
登录后复制

示例2输出:

--- 示例2:最佳近似分配 ---
超集均值: 102.5
子集 0: [103, 103], 均值: 103.0
子集 1: [100, 100, 104, 104], 均值: 102.0
子集 2: [100, 100, 100, 103, 103, 103, 103, 103, 103, 103, 103, 104, 104, 104], 均值: 102.57142857142857
登录后复制

可以看到,PuLP找到了一个最优解,尽管在示例2中无法达到完美均值,但它最小化了总体的均值偏差。

4. 启发式算法:Karmarkar-Karp

Karmarkar-Karp 算法(也称为最大差值法,Largest Differencing Method)是一种用于解决数集划分问题的启发式算法。它旨在将一个数集划分为指定数量的子集,使这些子集的总和尽可能接近,通常用于最小化最大子集和与最小子集和之间的差异,或者使所有子集和尽可能接近平均值。

局限性: Karmarkar-Karp算法通常不直接支持固定子集大小的约束。这意味着它会尝试平衡子集总和,但不会保证每个子集包含预设数量的元素。因此,它不能直接解决我们提出的问题。然而,在某些不需要严格固定子集大小,只追求总和平衡的场景下,它可能作为一个快速的近似解法。

4.1 使用 numberpartitioning 库

Python的 numberpartitioning 库提供了一个 Karmarkar-Karp 算法的实现。

from statistics import mean
from numberpartitioning import karmarkar_karp

# 示例2数据
superset_ex2 = [100]*5 + [103]*10 + [104]*5

print("--- Karmarkar-Karp 算法示例 ---")
print("超集均值:", mean(superset_ex2))

# 将超集划分为3个子集
# 注意:karmarkar_karp不保证子集大小,只平衡子集和
partitions = karmarkar_karp(superset_ex2, num_parts=3).partition

for i, p in enumerate(partitions):
    print(f"子集 {i}: {p}, 均值: {mean(p)}, 大小: {len(p)}")
登录后复制

Karmarkar-Karp 示例输出:

--- Karmarkar-Karp 算法示例 ---
超集均值: 102.5
子集 0: [104, 104, 103, 103, 103, 100], 均值: 102.83333333333333, 大小: 6
子集 1: [100, 103, 104, 103, 103, 103, 100], 均值: 102.28571428571429, 大小: 7
子集 2: [100, 104, 104, 103, 103, 103, 100], 均值: 102.42857142857143, 大小: 7
登录后复制

从输出可以看出,Karmarkar-Karp算法生成的子集大小(6, 7, 7)与我们预设的子集大小(2, 4, 14)不符,因此它不能直接

以上就是基于优化理论的子集均值均衡分配策略的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号