
在使用scipy.optimize.fmin进行数值优化时,一个常见的陷阱是其默认行为会将传递给目标函数的初始猜测值(x0参数)展平(ravel)成一维数组,无论其原始形状如何。这导致当目标函数内部期望接收多维数组(如矩阵)时,会出现维度不匹配的错误,例如“matrices are different sizes”或“input operand 1 has a mismatch in its core dimension”。
问题根源: optimize.fmin为了通用性,将所有输入参数视为一维向量进行处理。因此,如果您传入一个 (4, 4) 的矩阵作为初始猜测 guess,在目标函数 objfunc 内部,guess 会变成一个 (16,) 的一维数组。
解决方案: 最直接的解决办法是在目标函数 objfunc 的开头,手动将展平后的 guess 数组重塑(reshape)回其预期的多维形状。
import numpy as np
from scipy import optimize
import math
# 定义矩阵维度
rows, cols = 4, 4
# 示例数据
guess = np.array([
[1, -1, 2, 0],
[0, 2, 0, 0],
[1, 0, 0, 1],
[0, 1, 2, 0]
])
inputArray = np.array([
[2, 4, 6, 9],
[2, 3, 1, 0],
[7, 2, 6, 4],
[1, 5, 2, 1]
])
goalArray = np.array([
[14, 5, 17, 17],
[4, 6, 2, 0],
[3, 9, 8, 10],
[16, 7, 13, 8]
])
# 修正后的目标函数
def objfunc(guess_flat, inputArray, goalArray):
# 核心修正:将展平的guess_flat重塑回原始矩阵形状
guess = guess_flat.reshape((rows, cols))
model = guess @ inputArray # 矩阵乘法
# 计算误差:使用NumPy向量化操作替代循环
# 原始问题中是求差的绝对值之和,等同于L1范数
# sum_error = np.sum(np.abs(goalArray - model))
# 如果是欧几里得距离(L2范数),则使用:
sum_error = np.linalg.norm(goalArray - model, ord='fro') # Frobenius范数等同于展平后的L2范数
return sum_error
# 验证修正后的目标函数
print(f"Initial guess shape: {guess.shape}")
print(f"Input array shape: {inputArray.shape}")
print(f"Initial objective function value: {objfunc(guess.ravel(), inputArray, goalArray):.4f}")
# 调用optimize.fmin进行优化
# 注意:fmin的x0参数应为一维数组,因此需要对guess进行ravel()操作
minimum_fmin = optimize.fmin(objfunc, guess.ravel(), args=(inputArray, goalArray))
print("\n--- Results from optimize.fmin ---")
print(f"Optimized flat array: {minimum_fmin}")
print(f"Reshaped optimized matrix:\n{minimum_fmin.reshape((rows, cols))}")原始的目标函数中使用了嵌套的 for 循环来计算误差。在处理NumPy数组时,应尽量避免显式的Python循环,因为NumPy提供了高效的向量化操作,可以显著提升计算性能。
改进前:
sum = 0
for i in range(rows):
for j in range(cols):
sum = sum + math.sqrt((goalArray[i][j] - model[i][j]) ** 2)这段代码实际上是在计算矩阵元素差的绝对值之和(L1范数),因为 math.sqrt(x**2) 等价于 abs(x)。
改进后: 可以使用NumPy的 np.abs 和 np.sum 函数进行向量化操作,或者更推荐使用 np.linalg.norm 来清晰表达计算的是哪种范数。
sum_error = np.sum(np.abs(goalArray - model))
sum_error = np.sqrt(np.sum((goalArray - model) ** 2)) # 或者更简洁、更清晰地使用 numpy.linalg.norm sum_error = np.linalg.norm(goalArray - model, ord='fro')
在上述示例代码中,我们已经将目标函数 objfunc 更新为使用 np.linalg.norm,这不仅提高了效率,也使代码意图更加明确。
scipy.optimize.fmin 是一个遗留函数,尽管仍可使用,但对于新代码的开发,官方推荐使用更强大、更灵活的 scipy.optimize.minimize 函数。minimize 提供了一个统一的接口来访问多种优化算法(如BFGS, Nelder-Mead, SLSQP等),并且其文档明确指出其 x0 参数必须是一维数组,这与 fmin 的内部行为保持一致。
使用 optimize.minimize:
# 使用optimize.minimize进行优化
# x0 参数必须是展平的一维数组
minimum_result = optimize.minimize(objfunc, guess.ravel(), args=(inputArray, goalArray), method='BFGS')
print("\n--- Results from optimize.minimize (BFGS) ---")
print(f"Optimization successful: {minimum_result.success}")
print(f"Message: {minimum_result.message}")
print(f"Final objective function value: {minimum_result.fun:.4f}")
print(f"Optimized flat array: {minimum_result.x}")
print(f"Reshaped optimized matrix:\n{minimum_result.x.reshape((rows, cols))}")
# 尝试不同的优化方法,例如'Nelder-Mead' (fmin的默认方法)
minimum_result_nm = optimize.minimize(objfunc, guess.ravel(), args=(inputArray, goalArray), method='Nelder-Mead')
print("\n--- Results from optimize.minimize (Nelder-Mead) ---")
print(f"Optimization successful: {minimum_result_nm.success}")
print(f"Message: {minimum_result_nm.message}")
print(f"Final objective function value: {minimum_result_nm.fun:.4f}")
print(f"Reshaped optimized matrix:\n{minimum_result_nm.x.reshape((rows, cols))}")optimize.minimize 的优势:
值得注意的是,对于本教程中的特定问题——寻找一个转换矩阵 guess,使得 guess @ inputArray 尽可能接近 goalArray,如果 inputArray 是非奇异矩阵(可逆),这实际上是一个线性方程组问题,可以通过线性代数直接求解,而无需使用数值优化。
方程可以表示为 X * A = B,其中 X 是我们寻找的 guess 矩阵,A 是 inputArray,B 是 goalArray。 在Python/NumPy中,矩阵乘法的顺序通常是 X @ A。要解出 X,如果 A 可逆,则 X = B @ A_inv。
然而,numpy.linalg.solve(A, B) 函数用于求解 A @ X = B 形式的线性方程组。因此,我们需要对矩阵进行转置以适应 solve 函数的签名: guess @ inputArray = goalArray 两边同时右乘 inputArray 的逆矩阵: guess = goalArray @ np.linalg.inv(inputArray)
或者,使用 numpy.linalg.solve,它更数值稳定: 如果 A @ X = B,则 X = np.linalg.solve(A, B)。 我们的问题是 guess @ inputArray = goalArray。 为了匹配 A @ X = B 的形式,我们可以对整个方程进行转置: (guess @ inputArray).T = goalArray.TinputArray.T @ guess.T = goalArray.T 现在,这符合 A @ X = B 的形式,其中 A = inputArray.T,X = guess.T,B = goalArray.T。 因此,guess.T = np.linalg.solve(inputArray.T, goalArray.T)。 最后,将结果转置回来得到 guess: guess = np.linalg.solve(inputArray.T, goalArray.T).T
# 检查inputArray是否可逆
if np.linalg.det(inputArray) != 0:
# 使用线性代数直接求解
solution_linalg = np.linalg.solve(inputArray.T, goalArray.T).T
print("\n--- Solution using Linear Algebra (np.linalg.solve) ---")
print(f"Directly calculated transformation matrix:\n{solution_linalg}")
# 验证解的准确性
calculated_goal = solution_linalg @ inputArray
print(f"Verifying result (solution_linalg @ inputArray):\n{calculated_goal}")
print(f"Difference from goalArray (should be close to zero):\n{np.abs(goalArray - calculated_goal).sum():.4f}")
else:
print("\ninputArray is singular, cannot solve directly using linear algebra.")这种线性代数方法在 inputArray 非奇异的情况下,通常比迭代优化算法更精确、更快速。它应该作为解决此类特定问题的首选方法。
在Python中使用SciPy进行数值优化时,理解优化函数对输入参数的处理方式至关重要。
以上就是优化SciPy优化函数输入:解决矩阵维度不匹配与提升代码效率的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号