正确使用 skopt.gp_minimize 进行优化与结果可视化

DDD
发布: 2025-10-24 11:13:12
原创
375人浏览过

正确使用 skopt.gp_minimize 进行优化与结果可视化

## 理解 `skopt.gp_minimize` 的维度不匹配错误与 `x0` 参数

在使用 scikit-optimize 库中的 gp_minimize 函数进行贝叶斯优化时,常见的错误源于对 x0 参数(初始评估点)和搜索空间维度理解的偏差。当用户尝试提供多个初始点进行优化时,如果 x0 的格式与定义的搜索空间维度不一致,就会引发 runtimeerror 和 valueerror。

错误类型一:RuntimeError: Optimization space (...) and initial points in x0 use inconsistent dimensions.

此错误表明 gp_minimize 接收到的初始点 x0 的维度与 bounds 参数定义的搜索空间维度不匹配。例如,在一个一维优化问题中,如果 bounds 被定义为 [(0.0, 1.0)],这意味着搜索空间是一个一维区间。然而,如果 x0 被错误地设置为一个包含多个数值的 NumPy 数组(如 np.random.rand(5)),gp_minimize 会将其解释为一个 单点,但这个点却拥有 五维。这与一维的搜索空间定义相冲突,从而导致维度不一致的错误。

错误类型二:ValueError: The truth value of an array with more than one element is ambiguous.

当 gp_minimize 尝试验证 x0 中的每个点是否位于定义的搜索空间内时,如果 x0 是一个多元素的 NumPy 数组,且 skopt 内部的维度检查机制尝试对整个数组执行 low <= point <= high 这样的布尔比较,就会引发此错误。NumPy 数组的这种比较会返回一个布尔数组,而不是单个布尔值,因此其“真值”是模糊的,Python 无法直接判断其真假,从而抛出 ValueError。

核心原因在于: gp_minimize 的 x0 参数期望的是一个列表,其中每个元素都是一个与搜索空间维度相匹配的 单点。例如,对于一维空间,x0 应该像 [0.5] 或 [[0.2], [0.8]] 这样,其中每个内部列表或数值代表一个一维点。将 np.random.rand(5) 这样的数组直接作为 x0 传递,会被误解为一个五维的单点。

修正高斯过程优化实现

为了正确地利用 gp_minimize 进行多点初始化或多轮优化,我们需要调整 gaussian_process_optimization 函数,使其迭代地为每个初始点调用 gp_minimize。

PHPvod视频点播系统
PHPvod视频点播系统

PHPvod Studio是一款免费开源,基于PHP+Mysql开发的视频点播系统,系统拥有众多的优秀功能和特性,在社区成员的积极参与下,在易用性、扩展性和性能方面不断优化和改进,使得PHPvod可以在极为繁忙的服务器环境下快速稳定运行,切实节约网站成本。

PHPvod视频点播系统 124
查看详情 PHPvod视频点播系统
import numpy as np
from scipy.optimize import minimize
from skopt import gp_minimize
import matplotlib.pyplot as plt

# 辅助函数(与原问题代码保持一致,此处省略详细定义,但在完整代码中会包含)
def gaussian_rbf(x, x_prime, beta):
    return np.exp(-beta * np.linalg.norm(x - x_prime)**2)

def construct_interpolation_matrix(nodes, beta):
    N = len(nodes)
    K = np.zeros((N, N))
    for i in range(N):
        for j in range(N):
            K[i, j] = gaussian_rbf(nodes[i], nodes[j], beta)
    return K

def conditioning_analysis(N, m, beta):
    nodes = np.linspace(0, 1, N)
    K = construct_interpolation_matrix(nodes, beta)

    selected_indices = np.random.choice(N, m, replace=False)
    selected_nodes = nodes[selected_indices]

    condition_full = np.linalg.cond(K)
    condition_partial = np.linalg.cond(K[selected_indices][:, selected_indices])

    return condition_full, condition_partial

# 目标函数:应能处理单个标量输入
def objective_function(x):
    # 确保x是标量,对于numpy数组也兼容
    x_scalar = np.atleast_1d(x)[0] if np.ndim(x) > 0 else x
    return -(x_scalar**2 + np.sin(5 * x_scalar))

# 牛顿法相关的梯度和Hessian(与原问题代码保持一致)
def gradient_hessian(x):
    # 注意:原始代码中的梯度和Hessian函数与objective_function不匹配,
    # 原始的objective_function是 -(x^2 + sin(5x))
    # 原始的gradient_hessian似乎是为 f(x) = x * exp(-(1-x)^2) 编写的。
    # 为保持教程的焦点,此处使用原始的gradient_hessian,但请注意此潜在不一致。
    # 正确的梯度和Hessian应为:
    # df_dx = - (2 * x + 5 * np.cos(5 * x))
    # d2f_dx2 = - (2 - 25 * np.sin(5 * x))
    # 为避免引入新的复杂性,此处沿用原代码中的gradient_hessian,但建议用户根据实际目标函数进行修正。
    df_dx = 2 * x * np.exp(-(1 - x)**2) - 4 * x * (1 - x) * np.exp(-(1 - x)**2)
    d2f_dx2 = -2 * np.exp(-(1 - x)**2) + 4 * x * (1 - x) * np.exp(-(1 - x)**2) - 4 * (1 - x) * np.exp(-(1 - x)**2)
    return df_dx, d2f_dx2

def optimize_with_newton(initial_guess, max_iter=10):
    x_opt = initial_guess
    for _ in range(max_iter):
        df_dx, d2f_dx2 = gradient_hessian(x_opt)
        # 避免除以零或非常小的数
        if abs(d2f_dx2) < 1e-9:
            print(f"Warning: Hessian near zero at x={x_opt}, stopping Newton iteration.")
            break
        x_opt = x_opt - df_dx / d2f_dx2
    return x_opt

# 修正后的高斯过程优化函数
def gaussian_process_optimization(initial_points, objective_function, bounds, n_iter=10):
    """
    对每个初始点独立运行 gp_minimize,并返回所有优化结果。
    """
    optimal_x_values = np.zeros(len(initial_points))
    for i, x0_val in enumerate(initial_points):
        # 关键修正:x0 必须是包含单个点的列表,例如 [0.5]
        # 并且直接传入原始的 objective_function,它应处理标量输入
        result = gp_minimize(objective_function, bounds, acq_func="LCB", n_calls=n_iter + 1, random_state=42 + i, x0=[x0_val])
        optimal_x_values[i] = result.x[0] # result.x 是一个列表,取第一个元素
    return optimal_x_values
登录后复制

修正要点:

  1. 迭代调用 gp_minimize: 新函数通过循环遍历 initial_points 数组中的每个初始值。
  2. x0 参数的正确格式: 在每次迭代中,将单个初始点 x0_val 包装成一个列表,即 x0=[x0_val]。这确保 gp_minimize 将其解释为一个一维搜索空间中的单个初始点。
  3. 直接传入 objective_function: gp_minimize 期望接收一个能够处理单个输入(与搜索空间维度匹配)并返回单个标量输出的目标函数。原始的 objective_function 符合此要求。
  4. 返回多个最优解: 由于我们对每个初始点都运行了一次优化,函数将返回一个包含所有找到的最优 x 值的 NumPy 数组。

准确可视化优化结果

在修正了 gp_minimize 的使用方式后,我们需要确保优化结果能够正确地在图表中呈现。特别是当高斯过程优化返回多个最优解时,如何有效地在图上标记这些点是关键。

# Task 1: Analyze conditioning (与原问题代码一致)
N = 10
m = 5
beta = 1.0
condition_full, condition_partial = conditioning_analysis(N, m, beta)
print(f"Conditioning for full matrix: {condition_full}")
print(f"Conditioning for partial matrix: {condition_partial}")

# 优化与牛顿法
initial_guess_newton = 0.5
x_opt_newton = optimize_with_newton(initial_guess_newton)
print(f"Optimal solution with Newton's method: {x_opt_newton}")

# 高斯过程优化
initial_points_gp = np.random.rand(5) # 5个随机初始点
bounds_gp = [(0.0, 1.0)]

# 调用修正后的高斯过程优化函数
x_opt_gp_array = gaussian_process_optimization(initial_points_gp, objective_function, bounds_gp, n_iter=10)
print(f"Optimal solutions with Gaussian process optimization (from multiple starts): {x_opt_gp_array}")

# 从多个GP结果中选择最佳点进行可视化,以便与牛顿法进行直接比较
# 假设我们寻找的是最小值,因此选择 objective_function 值最小的点
y_values_gp = [objective_function(x) for x in x_opt_gp_array]
best_gp_index = np.argmin(y_values_gp)
best_x_opt_gp = x
登录后复制

以上就是正确使用 skopt.gp_minimize 进行优化与结果可视化的详细内容,更多请关注php中文网其它相关文章!

相关标签:
最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号