
r² 分数并非总在 [0, 1] 区间内;当模型拟合效果比“仅预测均值”的基准模型更差时,r² 可为负值,这反映模型存在严重失拟或设定错误。
在使用 sklearn.metrics.r2_score 评估非线性回归模型(如您对 Kaggle 的 kc_house_data 所做的指数型拟合)时,出现负 R²(例如 -59.51)并不表示代码报错,而是模型性能的真实警示信号——说明当前函数形式、初始参数或数据预处理方式导致预测结果系统性偏离真实值,甚至不如直接用训练集标签均值作恒定预测。
R² 的数学定义为:
[
R^2 = 1 - \frac{\sum_i (y_i - \hat{y}_i)^2}{\sum_i (y_i - \bar{y})^2}
]
其中分母是“基准误差”(用均值 $\bar{y}$ 预测的残差平方和),分子是模型残差平方和。当分子 > 分母时,R² —— 即模型误差比“全猜均值”还大。
在您的代码中,问题根源包括:
- ❌ 函数形式与数据不匹配:log(a, β₁, β₂, β₃) = β₁ × β₂ᵃ + β₃ 是严格单调递增的指数模型,但房价与归一化“combined”特征之间未必满足该关系(尤其当 combined 含地理、年份等异质变量时,线性叠加后归一化已破坏可解释性);
- ❌ 未使用拟合后的最优参数进行预测:您调用 curve_fit 获取了 popt,但在计算 r2_score 时却用原始初值 beta_1=1, beta_2=1.5, beta_3=0.1 计算 y_pred,而非 y = log(x_data_norm, *popt);
- ❌ 混淆归一化尺度:x_data_norm = x_data / max(x_data) 和 y_data_norm = y_data / max(y_data) 改变了量纲与动态范围,而 curve_fit 在归一化空间拟合后,若未严格保持输入/输出尺度一致,会导致 y 预测值与 y_data_norm 不可比。
✅ 正确做法示例(修正关键步骤):
# 确保用最优参数预测
y_pred_norm = log(x_data_norm, *popt) # 而非用初始参数
# 验证维度与类型一致
assert y_pred_norm.shape == y_data_norm.shape
assert not np.any(np.isnan(y_pred_norm))
# 计算 R² 在归一化空间(合理)
r2 = r2_score(y_data_norm, y_pred_norm)
print(f"R²-score (on normalized y): {r2:.4f}")
# 若需原始尺度 R²,应反归一化预测值(注意:r2_score 对线性变换不变,但需确保一致性)
y_pred_original = y_pred_norm * max(y_data) # 恢复价格量级
r2_original = r2_score(y_data, y_pred_original)
print(f"R²-score (on original scale): {r2_original:.4f}")? 重要提醒:
- R² 立即检查模型假设(如函数形式是否过简/过强)、诊断残差图(是否存在系统性模式)、验证特征工程合理性(如 combined 是否掩盖了关键非线性交互);
- 对非线性回归,建议辅以 MAE、RMSE 及可视化(如残差 vs. fitted 值图)综合判断;
- curve_fit 默认最小化平方误差,但若目标变量跨度大(如房价从几万到千万),考虑对 y_data 取对数后再拟合(即建模 log(price)),常能提升稳定性和解释性。
总之,负 R² 不是 bug,而是模型在“大声提醒”:请重审你的假设。










