
在数据分析工作中,我们经常需要从原始数据集中提取特定子集,进行计算,然后将结果合并。例如,根据不同的条件(如 regions 和 n)筛选数据,计算特定指标(如 length),再将这些结果通过 merge 操作组合起来。这种方法虽然能达到目的,但在实际操作中往往面临以下问题:
以下是原始问题中展示的示例代码片段,它清晰地体现了这种重复性:
# 原始的重复筛选和合并操作示例
df_cap_N90 = df_stats[(df_stats['N'] == 90) & (df_stats['regions'] == 'captured')].drop(columns=['regions', 'N'])
df_cap_N50 = df_stats[(df_stats['N'] == 50) & (df_stats['regions'] == 'captured')].drop(columns=['regions', 'N'])
df_all_N50 = df_stats[(df_stats['N'] == 50) & (df_stats['regions'] == 'all') ].drop(columns=['regions', 'N'])
df_summ_cap_N50_all_N50 = pd.merge(df_cap_N50, df_all_N50, on='enzyme', how='inner', suffixes=('_cap_N50', '_all_N50'))
df_summ_cap_N50_all_N50['cap_N50_all_N50'] = (df_summ_cap_N50_all_N50['length_cap_N50'] -
df_summ_cap_N50_all_N50['length_all_N50'])
df_summ_cap_N90_all_N50 = pd.merge(df_cap_N90, df_all_N50, on='enzyme', how='inner', suffixes=('_cap_N90', '_all_N50'))
df_summ_cap_N90_all_N50['cap_N90_all_N50'] = df_summ_cap_N90_all_N50['length_cap_N90'] - df_summ_cap_N90_all_N50['length_all_N50']
df_summ = pd.merge(df_summ_cap_N50_all_N50.drop(columns=['length_cap_N50', 'length_all_N50']),
df_summ_cap_N90_all_N50.drop(columns=['length_cap_N90', 'length_all_N50']),
on='enzyme', how='inner')为了解决上述问题,Pandas 提供了 pivot 函数,它能够将“长格式”数据(即多个变量的值存储在同一列中,通过其他列标识其类型)转换为“宽格式”数据(即每个变量类型拥有独立的列)。这种重塑操作能极大地简化后续的计算逻辑。
pivot 函数的核心参数包括:
首先,我们加载并查看原始数据:
import io
import pandas as pd
TESTDATA="""
enzyme regions N length
AaaI all 10 238045
AaaI all 20 170393
AaaI all 30 131782
AaaI all 40 103790
AaaI all 50 81246
AaaI all 60 62469
AaaI all 70 46080
AaaI all 80 31340
AaaI all 90 17188
AaaI captured 10 292735
AaaI captured 20 229824
AaaI captured 30 193605
AaaI captured 40 163710
AaaI captured 50 138271
AaaI captured 60 116122
AaaI captured 70 95615
AaaI captured 80 73317
AaaI captured 90 50316
AagI all 10 88337
AagI all 20 19144
AagI all 30 11030
AagI all 40 8093
AagI all 50 6394
AagI all 60 4991
AagI all 70 3813
AagI all 80 2759
AagI all 90 1666
AagI captured 10 34463
AagI captured 20 19220
AagI captured 30 15389
AagI captured 40 12818
AagI captured 50 10923
AagI captured 60 9261
AagI captured 70 7753
AagI captured 80 6201
AagI captured 90 4495
"""
df_stats = pd.read_csv(io.StringIO(TESTDATA), sep='\s+')
print("原始数据 df_stats 头部:")
print(df_stats.head())输出:
原始数据 df_stats 头部: enzyme regions N length 0 AaaI all 10 238045 1 AaaI all 20 170393 2 AaaI all 30 131782 3 AaaI all 40 103790 4 AaaI all 50 81246
为了进行 cap_N50_all_N50 和 cap_N90_all_N50 的计算,我们只需要 N 为 50 和 90 的数据。首先筛选出这些数据,然后使用 pivot 进行重塑。
# 筛选出 N 为 50 或 90 的数据,这是后续计算所需
filtered_df = df_stats.loc[df_stats["N"].isin([50, 90])]
# 使用 pivot 重塑数据
# index='enzyme' 将 enzyme 作为新的行索引
# columns=['regions', 'N'] 将 regions 和 N 的组合作为新的列索引(多级列)
# values='length' 将 length 列的值填充到新的单元格中
pivoted_df = filtered_df.pivot(index="enzyme", columns=["regions", "N"], values="length")
print("\n重塑后的 pivoted_df 头部:")
print(pivoted_df.head())输出:
重塑后的 pivoted_df 头部: regions all captured N 50 90 50 90 enzyme AaaI 81246 17188 138271 50316 AagI 6394 1666 10923 4495
可以看到,pivoted_df 现在是一个宽格式的 DataFrame,enzyme 作为行索引,regions 和 N 的组合作为多级列索引。所有需要进行计算的值都已排列在同一行中,使得后续操作变得非常直接。
数据重塑完成后,复杂的跨列计算就变得异常简单。我们可以直接通过列名访问数据,并利用 Pandas 的内置方法进行高效的向量化操作。
# 进行统计计算
# 从 'captured' 区域的 N50/N90 值中减去 'all' 区域的 N50 值
# pivoted_df["captured"] 选取所有 'captured' 区域的列(N50, N90)
# pivoted_df[("all", 50)] 选取 'all' 区域的 N50 列
# .sub() 方法执行减法,axis=0 表示按行对齐索引进行操作
result_df = (pivoted_df["captured"]
.sub(pivoted_df[("all", 50)], axis=0)
.add_prefix("cap_N") # 为列添加前缀 'cap_N'
.add_suffix("_all_N50") # 为列添加后缀 '_all_N50'
.reset_index()) # 将 enzyme 索引重置为普通列
print("\n最终结果 result_df:")
print(result_df)输出:
最终结果 result_df: N enzyme cap_N50_all_N50 cap_N90_all_N50 0 AaaI 57025 -30930 1 AagI 4529 -1899
通过上述代码,我们仅用了几行简洁的代码就实现了与原始冗长代码相同的结果,并且逻辑更加清晰。
与原始的重复筛选和合并方法相比,使用 pivot 进行数据聚合和计算带来了显著的优势:
以上就是Pandas 数据聚合优化:利用 Pivot 提升效率与代码简洁性的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号