
线性判别分析(LDA)是一种强大的降维技术,旨在通过创建新的线性组合来最大化类别间的分离度,而非直接选择原始特征。本文将深入探讨LDA的工作原理,阐明其与特征选择的区别,并详细指导如何利用`lda.coef_`属性来理解原始特征对新判别函数的影响及贡献,通过示例代码提供清晰的实践指导。
线性判别分析(LDA)是一种监督式学习算法,主要用于分类和降维。与主成分分析(PCA)不同,LDA在降维时会考虑数据的类别信息。它的核心目标是找到一个或多个线性判别函数(或称判别方向),使得不同类别的数据点投影到这些方向上时,类别间的距离最大化,同时类别内部的方差最小化。
关键点:LDA不是特征选择。 这是一个常见的误解。LDA并不会从原始特征集中“选择”出最好的N个特征。相反,它会基于原始特征创建一个全新的、维度更低的特征空间。这个新空间中的每个维度(判别函数)都是原始特征的线性组合。例如,如果原始数据集有4个特征,LDA将其降维到2个特征,这2个“新特征”是原始4个特征的某种加权求和。
既然LDA不直接选择原始特征,那么我们如何理解原始特征在降维过程中扮演的角色,或者说它们对最终判别函数有多大的贡献呢?答案在于LDA模型的一个重要属性:lda.coef_。
lda.coef_属性提供了构成线性判别函数的系数。这些系数反映了每个原始特征对判别函数方向的贡献程度。
让我们通过一个具体的Python示例来演示如何应用LDA并解读其系数。我们将使用经典的Iris数据集,它包含4个特征和3个类别。
import pandas as pd
from sklearn.datasets import load_iris
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
import matplotlib.pyplot as plt
import seaborn as sns
# 1. 加载Iris数据集
iris = load_iris()
X = iris.data # 特征数据
y = iris.target # 目标类别
# 将特征名称存储起来,以便后续解读
feature_names = iris.feature_names
# 2. 初始化并应用LDA
# 目标是降维到2个维度(因为有3个类别,LDA最多生成 n_classes - 1 个判别函数)
lda = LinearDiscriminantAnalysis(n_components=2)
X_r2 = lda.fit(X, y).transform(X)
print("原始特征维度:", X.shape[1])
print("LDA降维后的维度:", X_r2.shape[1])
# 3. 获取并解读判别函数的系数
coefficients = lda.coef_
print("\nLDA判别函数的系数 (lda.coef_):\n", coefficients)
# 4. 可视化系数以理解特征贡献
# 通常,lda.coef_的每一行对应一个判别函数
# 如果只有一行(即n_components=1),则直接是那个判别函数的系数
# 如果有多行,则每行代表一个判别函数,我们可以分析每个判别函数中特征的贡献
# 创建一个DataFrame以便更好地展示和分析系数
coef_df = pd.DataFrame(coefficients, columns=feature_names)
coef_df.index = [f"Discriminant Function {i+1}" for i in range(coefficients.shape[0])]
print("\n特征贡献度(DataFrame形式):\n", coef_df)
# 可视化每个判别函数中特征的贡献
plt.figure(figsize=(10, 6))
sns.heatmap(coef_df.T, annot=True, cmap='coolwarm', fmt=".2f", linewidths=.5)
plt.title('Contribution of Original Features to LDA Discriminant Functions')
plt.xlabel('Discriminant Function')
plt.ylabel('Original Feature')
plt.show()
# 5. 可选:可视化降维后的数据
plt.figure(figsize=(8, 6))
colors = ['navy', 'turquoise', 'darkorange']
lw = 2
for color, i, target_name in zip(colors, [0, 1, 2], iris.target_names):
plt.scatter(X_r2[y == i, 0], X_r2[y == i, 1], alpha=.8, color=color,
label=target_name)
plt.legend(loc='best', shadow=False, scatterpoints=1)
plt.title('LDA of Iris dataset')
plt.xlabel('Discriminant Function 1')
plt.ylabel('Discriminant Function 2')
plt.show()代码解读:
通过理解lda.coef_,数据科学家和机器学习工程师可以更深入地洞察LDA模型的工作机制,从而更好地解释模型结果,并理解哪些原始特征在构建类别区分度方面发挥了关键作用,即使这些特征本身并未被“选择”出来。
以上就是如何理解并解读线性判别分析(LDA)的特征贡献的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号