
在使用`scipy.optimize.minimize`处理多重线性约束时,开发者常因python闭包的延迟绑定特性导致约束未能正确生效。本文将深入探讨这一常见陷阱,并提供两种有效的解决方案来确保约束的正确应用。此外,还将介绍如何利用`scipy.optimize.linearconstraint`这一高效工具,显著提升线性约束问题的求解性能与稳定性,避免使用通用函数定义非线性约束带来的性能损耗。
在数值优化领域,scipy.optimize.minimize是Python中一个功能强大的工具,用于求解各种类型的优化问题,包括带有约束的非线性规划。然而,当涉及到在循环中动态定义多个线性约束时,一个常见的陷阱——Python闭包的“延迟绑定”现象——可能会导致约束行为与预期不符。理解并正确处理这一机制,对于构建健壮且高效的优化模型至关重要。
Python中的闭包(Closure)是指一个函数记住其创建时的环境,即使该环境已经不存在。当一个内部函数(如lambda函数)引用了其外部作用域的变量时,就形成了一个闭包。然而,这些外部变量的查找是在内部函数被调用时进行的,而不是在它被定义时。这就是所谓的“延迟绑定”(Late Binding)。
考虑以下示例:
numbers = [1, 2, 3]
funcs = []
for n in numbers:
funcs.append(lambda: n)
for func in funcs:
print(func())你可能期望输出 1, 2, 3。但实际输出是:
3 3 3
这是因为当lambda: n被定义时,它并没有立即捕获n的当前值,而是捕获了对变量n的引用。当func()被调用时,它会去查找当前作用域中n的最新值。在循环结束后,n的最终值是3,因此所有函数都引用了这个最终值。
在scipy.optimize.minimize中定义多个约束时,如果使用循环和lambda表达式来生成约束函数,就会遇到同样的问题。例如,原始问题中定义子总和约束的代码:
cons = []
groups = [[0, 1, 2, 3], [4, 5], [6, 7, 8, 9]]
z_group = [0.25, 0.55, 0.2]
for idx, select in enumerate(groups):
cons.append({'type': 'eq', 'fun': lambda x: z_group[idx] - x[select].sum()})这里的lambda x: z_group[idx] - x[select].sum()中的idx和select变量也是延迟绑定的。这意味着,当优化器实际调用这些约束函数时,idx和select将是循环结束时的最终值,导致只有最后一个组的约束被实际应用,而其他组的约束则被错误地覆盖。
为了确保每个约束函数都能正确地捕获其定义时的idx和select值,我们可以采用以下两种方法:
通过定义一个外部函数,让它返回内部函数。外部函数的参数会在函数调用时立即绑定,并被内部函数捕获。
import numpy as np
from scipy.optimize import minimize
# 示例数据 (与原问题一致)
utility_vector = np.array([0.10, 0.08, 0.05, 0.075, 0.32,
0.21, 0.18, 0.05, 0.03, 0.12])
x0 = np.zeros((10, ))
groups = [[0, 1, 2, 3], [4, 5], [6, 7, 8, 9]]
z_group = [0.25, 0.55, 0.2]
def opt_func(x, u, target):
utility = (x * u).sum()
return (utility - target)**2
def create_group_constraint(idx, select_indices, target_sum):
"""
创建一个闭包函数,用于定义单个组的线性约束。
idx: 组的索引
select_indices: 组内变量的索引列表
target_sum: 该组变量的目标和
"""
def inner_constraint(x):
return target_sum - x[select_indices].sum()
return inner_constraint
cons = []
# 总和线性约束
cons.append({'type': 'eq', 'fun': lambda x: 1 - x.sum()})
# 子总和线性约束
for idx, select in enumerate(groups):
cons.append({'type': 'eq', 'fun': create_group_constraint(idx, select, z_group[idx])})
bnds = tuple((0, None) for _ in range(10)) # x 变量非负
res = minimize(fun=opt_func,
x0=x0,
method='trust-constr',
bounds=bnds,
constraints=tuple(cons),
args=(utility_vector, 0.16),
tol=1e-4)
print("--- 修复延迟绑定后的结果 (方法一) ---")
print(res)
print(f'\nTotal allocation sum: {res.x.sum():.4f}')
for idx, select in enumerate(groups):
print(f'Group {select} fields difference: {z_group[idx] - res.x[select].sum():.4e}')将循环变量作为lambda函数的默认参数传入。默认参数在函数定义时立即绑定其值,而不是延迟绑定。
import numpy as np
from scipy.optimize import minimize
# 示例数据 (与原问题一致)
utility_vector = np.array([0.10, 0.08, 0.05, 0.075, 0.32,
0.21, 0.18, 0.05, 0.03, 0.12])
x0 = np.zeros((10, ))
groups = [[0, 1, 2, 3], [4, 5], [6, 7, 8, 9]]
z_group = [0.25, 0.55, 0.2]
def opt_func(x, u, target):
utility = (x * u).sum()
return (utility - target)**2
cons = []
# 总和线性约束
cons.append({'type': 'eq', 'fun': lambda x: 1 - x.sum()})
# 子总和线性约束
for idx, select in enumerate(groups):
# 将 idx 和 select 作为 lambda 的默认参数,实现立即绑定
cons.append({'type': 'eq', 'fun': lambda x, current_idx=idx, current_select=select:
z_group[current_idx] - x[current_select].sum()})
bnds = tuple((0, None) for _ in range(10)) # x 变量非负
res = minimize(fun=opt_func,
x0=x0,
method='trust-constr',
bounds=bnds,
constraints=tuple(cons),
args=(utility_vector, 0.16),
tol=1e-4)
print("\n--- 修复延迟绑定后的结果 (方法二) ---")
print(res)
print(f'\nTotal allocation sum: {res.x.sum():.4f}')
for idx, select in enumerate(groups):
print(f'Group {select} fields difference: {z_group[idx] - res.x[select].sum():.4e}')这两种方法都能有效解决延迟绑定问题,确保每个约束函数在被调用时都能访问到正确的idx和select值。
尽管上述方法解决了延迟绑定问题,但直接将线性约束作为通用函数(fun)传递给scipy.optimize.minimize,效率并非最高。scipy优化器在处理非线性约束时,通常需要通过数值方法(如有限差分)来估计梯度和Hessian矩阵,这会增加计算成本。
对于线性约束,scipy.optimize提供了专门的LinearConstraint类,它允许优化器以更高效、更精确的方式处理这些约束。LinearConstraint通过矩阵乘法的形式 lb <= A @ x <= ub 来定义线性约束,其中A是一个系数矩阵,lb是下界向量,ub是上界向量。优化器可以直接利用这些线性结构,从而在迭代过程中更快地找到满足约束的解。
将原始问题中的总和约束和子总和约束转换为LinearConstraint形式的步骤如下:
总和约束 x.sum() = 1.0:
子总和约束 x[selection].sum() = Z_group:
以下是使用LinearConstraint实现这些约束的示例:
import numpy as np
from scipy.optimize import minimize, LinearConstraint
# 示例数据 (与原问题一致)
utility_vector = np.array([0.10, 0.08, 0.05, 0.075, 0.32,
0.21, 0.18, 0.05, 0.03, 0.12])
x0 = np.zeros((10, ))
groups = [[0, 1, 2, 3], [4, 5], [6, 7, 8, 9]]
z_group = [0.25, 0.55, 0.2]
n_variables = len(x0)
def opt_func(x, u, target):
utility = (x * u).sum()
return (utility - target)**2
# 1. 定义总和约束: x.sum() = 1
# A矩阵是一个所有元素为1的行向量
sum_constraint_A = np.ones((1, n_variables))
# 下界和上界都为1
sum_constraint_lb = np.array([1])
sum_constraint_ub = np.array([1])
total_sum_constraint = LinearConstraint(A=sum_constraint_A, lb=sum_constraint_lb, ub=sum_constraint_ub)
# 2. 定义子总和约束: x[selection].sum() = Z_group
# A矩阵的行数等于组的数量,列数等于变量的数量
group_sum_matrix = np.zeros((len(groups), n_variables))
group_sum_target = np.array(z_group)
for idx, select in enumerate(groups):
# 对于每个组,在其对应的行中,将属于该组的变量索引位置设为1
group_sum_matrix[idx, select] = 1
group_sum_constraint = LinearConstraint(A=group_sum_matrix, lb=group_sum_target, ub=group_sum_target)
# 变量边界 (非负)
bnds = tuple((0, None) for _ in range(n_variables))
res_linear = minimize(fun=opt_func,
x0=x0,
method='trust-constr', # 'trust-constr' 方法对线性约束支持良好
bounds=bnds,
constraints=[total_sum_constraint, group_sum_constraint], # 传递 LinearConstraint 对象
args=(utility_vector, 0.16),
tol=1e-4)
print("\n--- 使用 LinearConstraint 后的结果 ---")
print(res_linear)
print(f'\nTotal allocation sum: {res_linear.x.sum():.4f}')
for idx, select in enumerate(groups):
print(f'Group {select} fields difference: {z_group[idx] - res_linear.x[select].sum():.4e}')通过使用LinearConstraint,优化器能够更高效地处理线性约束,通常会减少迭代次数,提高求解速度和精度。对于大规模问题,这种性能提升尤为显著。
在scipy.optimize.minimize中处理多重线性约束时,请遵循以下最佳实践:
通过遵循这些指导原则,您可以避免常见的陷阱,并更有效地利用scipy.optimize解决复杂的数值优化问题。
以上就是Scipy优化中处理多重线性约束的正确姿势的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号