Python模型性能评估需选对指标、用对工具、理解含义:二分类用Accuracy/Precision/Recall/F1/AUC,多分类加macro/micro平均,回归用MAE/MSE/RMSE/R²;scikit-learn可快速计算并可视化混淆矩阵与ROC曲线;注意数据类型一致、AUC需概率输入、不均衡时慎用Accuracy、推荐交叉验证。

直接用 Python 计算模型性能指标并不难,关键是选对指标、用对工具、理解数值背后的含义。下面从常用指标、代码实现、注意事项三方面讲清楚。
不同任务类型对应的核心指标不同:
比如预测用户是否会点击广告,更关注“召回率”(别漏掉潜在点击用户),而银行风控可能更看重“精确率”(别把好人当坏人)。
以二分类为例,假设已有真实标签 y_true 和预测概率 y_pred_proba 或预测类别 y_pred:
立即学习“Python免费学习笔记(深入)”;
<font size="2">from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score, roc_auc_score, confusion_matrix
from sklearn.model_selection import train_test_split
<h1>假设 model 已训练好,X_test, y_test 已准备好</h1><p>y_pred = model.predict(X_test) # 硬预测
y_pred_proba = model.predict_proba(X_test)[:, 1] # 正类概率</p><p>print("Accuracy:", accuracy_score(y_test, y_pred))
print("Precision:", precision_score(y_test, y_pred))
print("Recall:", recall_score(y_test, y_pred))
print("F1-score:", f1_score(y_test, y_pred))
print("AUC:", roc_auc_score(y_test, y_pred_proba))
print("Confusion Matrix:\n", confusion_matrix(y_test, y_pred))</font>多分类只需加参数 average='macro' 或 'micro';回归任务换用 mean_absolute_error、r2_score 等即可。
单看数字不够直观,可视化能快速定位问题:
示例(需安装 matplotlib):
<font size="2">import matplotlib.pyplot as plt
from sklearn.metrics import ConfusionMatrixDisplay, RocCurveDisplay
<h1>混淆矩阵图</h1><p>ConfusionMatrixDisplay.from_predictions(y_test, y_pred)
plt.title("Confusion Matrix")
plt.show()</p><h1>ROC 曲线</h1><p>RocCurveDisplay.from_predictions(y_test, y_pred_proba)
plt.title("ROC Curve")
plt.show()</font>实际用的时候常踩坑,注意这几点:
y_pred 和 y_test 数据类型一致(都是 int 或都转成 0/1)cross_val_score
基本上就这些。掌握这几个指标+几行代码,就能系统评估大多数模型了。
以上就是如何使用Python实现模型评估_模型性能指标分析方法【教程】的详细内容,更多请关注php中文网其它相关文章!
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号