
在机器学习模型开发中,不同模型却产生完全相同的性能指标结果,这往往是由于代码中的细微错误所致。本文将深入分析一个典型的案例,揭示在模型评估阶段因变量引用不当而导致指标计算错误的问题,并提供正确的代码实现与最佳实践,帮助开发者避免此类陷阱,确保模型评估的准确性。
一个典型的机器学习项目从导入必要的库、加载数据、进行预处理,并最终划分数据集为训练集和测试集开始。以下是本教程中使用的初始化步骤。
首先,导入所有将在项目中使用的Python库,包括数据处理、特征工程、模型构建和评估工具。
import pandas as pd
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.model_selection import train_test_split
from nltk.corpus import stopwords
from sklearn.metrics import accuracy_score, f1_score, classification_report
from sklearn.linear_model import LogisticRegression
from sklearn.ensemble import RandomForestClassifier
from sklearn.svm import SVC
from sklearn.naive_bayes import GaussianNB
from sklearn.preprocessing import LabelEncoder
import joblib
import tensorflow as tf
import numpy as np
from tensorflow.keras import models, layers
import warnings
warnings.filterwarnings('ignore') # 忽略警告信息,保持输出简洁本教程使用一个名为payload_mini.csv的数据集,其中包含文本payload和对应的label。我们首先加载数据,并根据attack_type字段筛选出sqli(SQL注入)攻击和norm(正常)流量的数据。
# 加载数据集,指定编码格式
df = pd.read_csv("payload_mini.csv", encoding='utf-16')
# 筛选出感兴趣的攻击类型和正常流量
df = df[(df['attack_type'] == 'sqli') | (df['attack_type'] == 'norm')]
# 划分特征X和目标Y
X = df['payload']
y = df['label']机器学习模型通常无法直接处理原始文本数据,需要将其转换为数值特征。这里采用CountVectorizer将文本转换为词频向量。随后,我们将数据集划分为训练集和测试集,以便独立评估模型的泛化能力。为了确保结果的可复现性,我们设置了random_state参数。
# 使用CountVectorizer进行文本特征向量化,过滤低频词和高频词,并移除英文停用词
vectorizer = CountVectorizer(min_df=2, max_df=0.8, stop_words=stopwords.words('english'))
X = vectorizer.fit_transform(X.values.astype('U')).toarray()
# 划分训练集和测试集,测试集占总数据的20%
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
print(f"训练集特征形状: {X_train.shape}")
print(f"训练集标签形状: {y_train.shape}")
print(f"测试集特征形状: {X_test.shape}")
print(f"测试集标签形状: {y_test.shape}")输出示例:
训练集特征形状: (8040, 1585) 训练集标签形状: (8040,) 测试集特征形状: (2011, 1585) 测试集标签形状: (2011,)
在训练和评估多个机器学习模型时,一个常见的错误是变量管理不当,这可能导致不同模型的评估指标结果出现异常的一致性。本节将通过一个具体的案例来展示这种错误。
我们首先训练一个高斯朴素贝叶斯分类器,并计算其在测试集上的准确率和F1分数。
nb_clf = GaussianNB()
nb_clf.fit(X_train, y_train)
y_pred_nb = nb_clf.predict(X_test) # 将朴素贝叶斯的预测结果存储在y_pred_nb中
print(f"朴素贝叶斯分类器在测试集上的准确率: {accuracy_score(y_pred_nb, y_test)}")
print(f"朴素贝叶斯分类器在测试集上的F1分数 (pos_label='anom'): {f1_score(y_pred_nb, y_test, pos_label='anom')}")
print("\n朴素贝叶斯分类报告:")
print(classification_report(y_test, y_pred_nb))输出示例:
朴素贝叶斯分类器在测试集上的准确率: 0.9806066633515664
朴素贝叶斯分类器在测试集上的F1分数 (pos_label='anom'): 0.9735234215885948
朴素贝叶斯分类报告:
precision recall f1-score support
anom 0.97 0.98 0.97 732
norm 0.99 0.98 0.98 1279
accuracy 0.98 2011
macro avg 0.98 0.98 0.98 2011
weighted avg 0.98 0.98 0.98 2011接下来,我们训练一个随机森林分类器。请仔细观察以下代码中的评估部分,它包含了一个常见的变量引用错误。
rf_clf = RandomForestClassifier(random_state=42) # 设置random_state以确保可复现性
rf_clf.fit(X_train, y_train)
y_pred_rf = rf_clf.predict(X_test) # 随机森林模型的预测结果存储在y_pred_rf中
# 错误的评估代码:在计算accuracy_score和f1_score时,不小心引用了前一个模型(朴素贝叶斯)的预测结果y_pred_nb
print(f"随机森林分类器在测试集上的准确率 (错误示例): {accuracy_score(y_pred_nb, y_test)}") # 错误地使用了y_pred_nb
print(f"随机森林分类器在测试集上的F1分数 (pos_label='anom') (错误示例): {f1_score(y_pred_nb, y_test, pos_label='anom')}") # 错误地使用了y_pred_nb
print("\n随机森林分类报告 (基于y_pred_rf):") # 注意:classification_report这里使用了正确的y_pred_rf
print(classification_report(y_test, y_pred_rf))输出示例:
随机森林分类器在测试集上的准确率 (错误示例): 0.9806066633515664
随机森林分类器在测试集上的F1分数 (pos_label='anom') (错误示例): 0.9735234215885948
随机森林分类报告 (基于y_pred_rf):
precision recall f1-score support
anom 1.00 0.96 0.98 73以上就是机器学习模型评估中的常见陷阱:变量误用导致指标结果一致性问题解析的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号