
在使用 scikit-optimize 库中的 gp_minimize 函数进行贝叶斯优化时,常见的错误源于对 x0 参数(初始评估点)和搜索空间维度理解的偏差。当用户尝试提供多个初始点进行优化时,如果 x0 的格式与定义的搜索空间维度不一致,就会引发 runtimeerror 和 valueerror。
此错误表明 gp_minimize 接收到的初始点 x0 的维度与 bounds 参数定义的搜索空间维度不匹配。例如,在一个一维优化问题中,如果 bounds 被定义为 [(0.0, 1.0)],这意味着搜索空间是一个一维区间。然而,如果 x0 被错误地设置为一个包含多个数值的 NumPy 数组(如 np.random.rand(5)),gp_minimize 会将其解释为一个 单点,但这个点却拥有 五维。这与一维的搜索空间定义相冲突,从而导致维度不一致的错误。
当 gp_minimize 尝试验证 x0 中的每个点是否位于定义的搜索空间内时,如果 x0 是一个多元素的 NumPy 数组,且 skopt 内部的维度检查机制尝试对整个数组执行 low <= point <= high 这样的布尔比较,就会引发此错误。NumPy 数组的这种比较会返回一个布尔数组,而不是单个布尔值,因此其“真值”是模糊的,Python 无法直接判断其真假,从而抛出 ValueError。
核心原因在于: gp_minimize 的 x0 参数期望的是一个列表,其中每个元素都是一个与搜索空间维度相匹配的 单点。例如,对于一维空间,x0 应该像 [0.5] 或 [[0.2], [0.8]] 这样,其中每个内部列表或数值代表一个一维点。将 np.random.rand(5) 这样的数组直接作为 x0 传递,会被误解为一个五维的单点。
为了正确地利用 gp_minimize 进行多点初始化或多轮优化,我们需要调整 gaussian_process_optimization 函数,使其迭代地为每个初始点调用 gp_minimize。
PHPvod Studio是一款免费开源,基于PHP+Mysql开发的视频点播系统,系统拥有众多的优秀功能和特性,在社区成员的积极参与下,在易用性、扩展性和性能方面不断优化和改进,使得PHPvod可以在极为繁忙的服务器环境下快速稳定运行,切实节约网站成本。
124
import numpy as np
from scipy.optimize import minimize
from skopt import gp_minimize
import matplotlib.pyplot as plt
# 辅助函数(与原问题代码保持一致,此处省略详细定义,但在完整代码中会包含)
def gaussian_rbf(x, x_prime, beta):
return np.exp(-beta * np.linalg.norm(x - x_prime)**2)
def construct_interpolation_matrix(nodes, beta):
N = len(nodes)
K = np.zeros((N, N))
for i in range(N):
for j in range(N):
K[i, j] = gaussian_rbf(nodes[i], nodes[j], beta)
return K
def conditioning_analysis(N, m, beta):
nodes = np.linspace(0, 1, N)
K = construct_interpolation_matrix(nodes, beta)
selected_indices = np.random.choice(N, m, replace=False)
selected_nodes = nodes[selected_indices]
condition_full = np.linalg.cond(K)
condition_partial = np.linalg.cond(K[selected_indices][:, selected_indices])
return condition_full, condition_partial
# 目标函数:应能处理单个标量输入
def objective_function(x):
# 确保x是标量,对于numpy数组也兼容
x_scalar = np.atleast_1d(x)[0] if np.ndim(x) > 0 else x
return -(x_scalar**2 + np.sin(5 * x_scalar))
# 牛顿法相关的梯度和Hessian(与原问题代码保持一致)
def gradient_hessian(x):
# 注意:原始代码中的梯度和Hessian函数与objective_function不匹配,
# 原始的objective_function是 -(x^2 + sin(5x))
# 原始的gradient_hessian似乎是为 f(x) = x * exp(-(1-x)^2) 编写的。
# 为保持教程的焦点,此处使用原始的gradient_hessian,但请注意此潜在不一致。
# 正确的梯度和Hessian应为:
# df_dx = - (2 * x + 5 * np.cos(5 * x))
# d2f_dx2 = - (2 - 25 * np.sin(5 * x))
# 为避免引入新的复杂性,此处沿用原代码中的gradient_hessian,但建议用户根据实际目标函数进行修正。
df_dx = 2 * x * np.exp(-(1 - x)**2) - 4 * x * (1 - x) * np.exp(-(1 - x)**2)
d2f_dx2 = -2 * np.exp(-(1 - x)**2) + 4 * x * (1 - x) * np.exp(-(1 - x)**2) - 4 * (1 - x) * np.exp(-(1 - x)**2)
return df_dx, d2f_dx2
def optimize_with_newton(initial_guess, max_iter=10):
x_opt = initial_guess
for _ in range(max_iter):
df_dx, d2f_dx2 = gradient_hessian(x_opt)
# 避免除以零或非常小的数
if abs(d2f_dx2) < 1e-9:
print(f"Warning: Hessian near zero at x={x_opt}, stopping Newton iteration.")
break
x_opt = x_opt - df_dx / d2f_dx2
return x_opt
# 修正后的高斯过程优化函数
def gaussian_process_optimization(initial_points, objective_function, bounds, n_iter=10):
"""
对每个初始点独立运行 gp_minimize,并返回所有优化结果。
"""
optimal_x_values = np.zeros(len(initial_points))
for i, x0_val in enumerate(initial_points):
# 关键修正:x0 必须是包含单个点的列表,例如 [0.5]
# 并且直接传入原始的 objective_function,它应处理标量输入
result = gp_minimize(objective_function, bounds, acq_func="LCB", n_calls=n_iter + 1, random_state=42 + i, x0=[x0_val])
optimal_x_values[i] = result.x[0] # result.x 是一个列表,取第一个元素
return optimal_x_values
修正要点:
在修正了 gp_minimize 的使用方式后,我们需要确保优化结果能够正确地在图表中呈现。特别是当高斯过程优化返回多个最优解时,如何有效地在图上标记这些点是关键。
# Task 1: Analyze conditioning (与原问题代码一致)
N = 10
m = 5
beta = 1.0
condition_full, condition_partial = conditioning_analysis(N, m, beta)
print(f"Conditioning for full matrix: {condition_full}")
print(f"Conditioning for partial matrix: {condition_partial}")
# 优化与牛顿法
initial_guess_newton = 0.5
x_opt_newton = optimize_with_newton(initial_guess_newton)
print(f"Optimal solution with Newton's method: {x_opt_newton}")
# 高斯过程优化
initial_points_gp = np.random.rand(5) # 5个随机初始点
bounds_gp = [(0.0, 1.0)]
# 调用修正后的高斯过程优化函数
x_opt_gp_array = gaussian_process_optimization(initial_points_gp, objective_function, bounds_gp, n_iter=10)
print(f"Optimal solutions with Gaussian process optimization (from multiple starts): {x_opt_gp_array}")
# 从多个GP结果中选择最佳点进行可视化,以便与牛顿法进行直接比较
# 假设我们寻找的是最小值,因此选择 objective_function 值最小的点
y_values_gp = [objective_function(x) for x in x_opt_gp_array]
best_gp_index = np.argmin(y_values_gp)
best_x_opt_gp = x以上就是正确使用 skopt.gp_minimize 进行优化与结果可视化的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号