
在实际应用中,我们经常会遇到需要从一组具有特定属性(例如,面积、体积、成本等)的对象中,选择一个子集以满足某个总和目标的问题。具体来说,假设我们有一个myclass实例列表obj_list,每个实例都含有一个area属性。我们的目标是从这个列表中移除最少数量的实例,使得剩余实例的总面积tot_area尽可能接近一个预设的target_area,允许一定的上下浮动。
一个直观但存在缺陷的思路是:首先对所有实例按面积进行排序,然后从最小的实例开始移除,直到总面积达到目标。然而,这种贪心策略可能不是最优的。例如,移除几个小面积实例可能不如移除一个特定的大面积实例更能有效地达到目标,同时保留更多的对象。因此,我们需要一种更系统、更优化的方法来解决这个问题。
上述问题实际上是著名的Knapsack(背包)问题的一个变种。在经典的0/1背包问题中,我们有一组物品,每个物品都有一个重量和一个价值,目标是在不超过背包容量的前提下,最大化装入物品的总价值。
将我们的问题映射到Knapsack模型中:
因此,我们的目标是选择一个实例子集,使得这些实例的总面积落在目标范围内,并且所选实例的总价值(即数量)最大化。
解决0/1背包问题通常可以通过动态规划或整数线性规划(ILP)来实现。Python的SciPy库提供了scipy.optimize.milp函数,这是一个用于解决混合整数线性规划问题的强大工具,非常适合我们这里的0/1背包问题。
milp函数的核心思想是将问题表述为: 最小化 c @ x 受限于 lb <= A @ x <= ub 以及 x 的整数性和界限
其中:
下面通过一个具体的Python示例来展示如何使用scipy.optimize.milp解决此问题:
import numpy as np
from scipy import optimize
from scipy.optimize import milp
# 1. 数据准备
# 假设的实例面积列表,代表MyClass实例的area属性
sizes = np.array([0.003968, 0.0148, 0.022912, 0.024832, 0.02912, 0.032448,
0.034176, 0.035136, 0.035584, 0.049344, 0.057984, 0.059904,
0.063744, 0.080064, 0.085824])
# 目标总面积
target_area = 0.45
# 允许的目标面积误差百分比,实现“软边界”
pct_error = 0.03
# 2. 定义目标函数系数
# 由于我们希望最大化选择的实例数量,因此将所有实例的“价值”设为1。
# milp函数是最小化目标函数,所以我们将系数设为负值,以达到最大化效果。
values = np.full_like(sizes, 1.0)
c = -values
# 3. 定义决策变量的属性
# integrality: 决策变量x_i必须是整数(0或1),表示选中或未选中。
integrality = np.full_like(values, True)
# bounds: 决策变量x_i的取值范围为[0, 1]。结合integrality,使其成为布尔变量。
bounds = optimize.Bounds(0, 1)
# 4. 定义约束条件
# 计算目标面积的上下限,形成一个“软边界”
lb = (1 - pct_error) * target_area
ub = (1 + pct_error) * target_area
# 线性约束:所有选中实例的面积之和必须落在[lb, ub]区间内。
# A矩阵在这里是一个行向量,其元素就是各个实例的面积。
constraints = optimize.LinearConstraint(A=sizes, lb=lb, ub=ub)
# 5. 执行混合整数线性规划
optimization_result = milp(c=c, constraints=constraints,
integrality=integrality, bounds=bounds)
# 6. 结果解读
if not optimization_result.success:
raise RuntimeError('MILP优化过程失败!')
# optimization_result.x 是决策变量的最终值,表示哪些实例被选中(接近1)
# 通过astype(bool)将其转换为布尔数组,方便筛选
selected_indices = optimization_result.x.astype(bool)
print(f'优化后的总面积: {sizes[selected_indices].sum()}')
# 示例输出: 优化后的总面积: 0.45998399999999995
print(f'决策变量结果 (选中为1,未选中为0):\n{optimization_result.x}')
# 示例输出: 决策变量结果 (选中为1,未选中为0):
# [0. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 0. 0.]
print(f'选中的实例面积列表:\n{sizes[selected_indices]}')
# 示例输出: 选中的实例面积列表:
# [0.0148 0.022912 0.024832 0.02912 0.032448 0.034176 0.035136 0.035584
# 0.049344 0.057984 0.059904 0.063744]通过将列表裁剪问题建模为0/1背包问题,并利用SciPy库中的milp函数,我们能够高效且准确地找到一个最优的实例子集,使其总面积接近目标值,并最大化保留的实例数量。这种方法克服了简单贪心策略的局限性,提供了一个专业且可靠的解决方案,适用于各种需要进行组合优化的场景。
以上就是使用SciPy解决列表子集和问题:基于Knapsack算法的优化裁剪策略的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号