python中实现数据分组统计的核心方法是pandas库的groupby(),其核心机制为“split-apply-combine”。1. 首先使用groupby()按一个或多个列分组;2. 然后对每组应用聚合函数(如sum(), mean(), count()等)进行计算;3. 最后将结果合并成一个新的dataframe或series。通过groupby()可以实现单列分组、多列分组、多种聚合函数组合、自定义聚合函数、重置索引等操作,还能结合agg()实现多层聚合分析,配合apply()和transform()可执行更复杂的分组逻辑,如广播结果回原始数据结构、填充缺失值、计算组内排名等。掌握groupby及其相关方法能显著提升数据分析效率与灵活性。
Python中实现数据分组统计,Pandas库的groupby方法无疑是核心利器。它能让你根据一个或多个列的值,将数据高效地拆分成若干组,然后对每组独立进行聚合计算,比如求和、计数、平均值等等。这就像是把一大堆散乱的数据,按照某种内在的逻辑自动分类整理好,方便我们从不同维度去洞察数据背后的规律。
要实现数据分组统计,最直接也是最常用的方法就是利用Pandas DataFrame的groupby()方法。它通常与一个或多个聚合函数(如sum(), mean(), count(), min(), max(), std(), var(), first(), last(), nth()等)结合使用。
首先,你需要一个DataFrame:
立即学习“Python免费学习笔记(深入)”;
import pandas as pd import numpy as np # 模拟一些销售数据 data = { '产品': ['A', 'B', 'A', 'C', 'B', 'A', 'C', 'B', 'A'], '区域': ['华东', '华北', '华东', '华南', '华北', '华中', '华南', '华中', '华东'], '销售额': [100, 150, 120, 80, 130, 90, 110, 160, 105], '销量': [10, 15, 12, 8, 13, 9, 11, 16, 10] } df = pd.DataFrame(data) print("原始数据:") print(df) print("-" * 30) # 1. 单列分组并求和 # 统计每个产品的总销售额 product_sales = df.groupby('产品')['销售额'].sum() print("按产品统计总销售额:") print(product_sales) print("-" * 30) # 2. 多列分组并计算平均值 # 统计每个区域、每个产品的平均销售额和平均销量 region_product_avg = df.groupby(['区域', '产品'])[['销售额', '销量']].mean() print("按区域和产品统计平均销售额及销量:") print(region_product_avg) print("-" * 30) # 3. 使用agg()进行多种聚合操作 # 统计每个区域的销售额:总和、平均值、最大值 region_agg_sales = df.groupby('区域')['销售额'].agg(['sum', 'mean', 'max']) print("按区域统计销售额的多种指标:") print(region_agg_sales) print("-" * 30) # 4. 使用agg()对不同列应用不同聚合函数 # 统计每个产品:销售额的总和,销量的平均值 product_custom_agg = df.groupby('产品').agg( 总销售额=('销售额', 'sum'), 平均销量=('销量', 'mean') ) print("按产品统计销售额总和与销量平均值:") print(product_custom_agg) print("-" * 30) # 5. 分组后重置索引 # 如果想把分组键也作为普通列而不是索引,可以使用reset_index() reset_index_example = df.groupby('产品')['销售额'].sum().reset_index() print("分组后重置索引:") print(reset_index_example)
groupby()方法的强大之处在于它的灵活性。你可以根据业务需求,选择任意列作为分组键,然后对目标列应用各种聚合函数。我第一次接触groupby的时候,觉得它有点像Excel里的数据透视表,但又灵活得多,尤其是在处理大数据集时,那效率简直是飞跃。
说实话,很多人用groupby只是停留在表面,知道怎么写,但不一定理解它背后的工作机制。Pandas的groupby操作,核心思想其实是“Split-Apply-Combine”(拆分-应用-合并)这个范式。理解这个,能帮你更好地优化代码,解决更复杂的问题。
掌握了“Split-Apply-Combine”这个概念,你就能更好地预判groupby的行为,也能在遇到性能瓶颈时,知道从哪个环节去优化。比如,如果你的apply步骤非常耗时,那可能需要考虑用矢量化操作替代,或者寻找Pandas内置的更优解。有时候,我们可能不自觉地写出一些看似合理但效率低下的groupby操作,比如对每一组都用apply去跑一个复杂的自定义函数,这时候就得停下来想想,有没有更Pandasic的办法。
在实际工作中,数据分析的需求往往比简单求和复杂得多。groupby结合agg()方法,可以轻松应对多列分组和多层聚合的场景,甚至还能自定义聚合函数名,让结果更清晰。
当我们需要同时对多个列进行分组,或者对同一列进行多种聚合操作时,agg()方法就显得尤为重要了。
# 模拟更复杂的销售数据,加入日期 df_complex = pd.DataFrame({ '日期': pd.to_datetime(['2023-01-01', '2023-01-01', '2023-01-02', '2023-01-02', '2023-01-03', '2023-01-03']), '产品': ['A', 'B', 'A', 'C', 'B', 'A'], '区域': ['华东', '华北', '华东', '华南', '华北', '华东'], '销售额': [100, 150, 120, 80, 130, 90], '成本': [50, 70, 60, 40, 65, 45] }) print("\n复杂原始数据:") print(df_complex) print("-" * 30) # 1. 多列分组,对不同列应用不同聚合函数,并自定义输出列名 # 统计每天每个区域:总销售额,平均成本,以及销售额的最高值和最低值 daily_region_stats = df_complex.groupby(['日期', '区域']).agg( 总销售额=('销售额', 'sum'), 平均成本=('成本', 'mean'), 销售额最大值=('销售额', 'max'), 销售额最小值=('销售额', 'min') ) print("每天每区域的销售统计:") print(daily_region_stats) print("-" * 30) # 2. 对同一列应用多个聚合函数,并使用多层列索引 # 统计每个产品的销售额:总和、平均值、标准差 product_multi_agg = df_complex.groupby('产品')['销售额'].agg(['sum', 'mean', 'std']) print("每个产品的销售额多指标统计:") print(product_multi_agg) print("-" * 30) # 3. 如果需要更复杂的自定义聚合,可以传入lambda函数 # 统计每个区域的销售额,并计算一个自定义的“销售额波动范围”(最大值-最小值) region_custom_range = df_complex.groupby('区域')['销售额'].agg( 总销售额='sum', 销售额波动范围=lambda x: x.max() - x.min() ) print("每个区域的销售额波动范围:") print(region_custom_range)
通过agg(),我们可以构建出非常精细的聚合报表。我记得有次做用户行为分析,需要同时按用户ID和行为类型来统计不同时段的操作次数,groupby(['user_id', 'action_type']).count()就完美解决了,那种感觉就像是找到了数据里的“密码”。而当需要更深入的分析,比如计算每个用户每次会话的平均时长,或者特定行为的转化率时,agg配合自定义函数就显得尤为灵活了。
groupby的强大不仅仅体现在简单的聚合上,它还提供了apply()和transform()这两个高级方法,它们能让你在分组数据上执行更复杂、更灵活的操作,甚至可以将结果“广播”回原始DataFrame的形状。
apply():自由度最高的“瑞士军刀”apply()方法会将每个分组作为一个独立的DataFrame(或Series)传递给你定义的函数。这意味着你可以在每个组内执行几乎任何Pandas操作,包括排序、筛选、合并、复杂的计算等等。它的返回值可以是Series、DataFrame,甚至是标量。
# 查找每个区域销售额最高的两条记录 def top_n_sales(group, n=2): return group.sort_values(by='销售额', ascending=False).head(n) top_sales_per_region = df_complex.groupby('区域').apply(top_n_sales) print("\n每个区域销售额最高的两条记录:") print(top_sales_per_region) print("-" * 30)
但apply也有它的“陷阱”,比如性能问题,如果你的函数能被矢量化操作替代,那最好不要用apply。它在处理大数据量时可能会比较慢,因为它需要迭代每个组并调用Python函数。
transform():结果形状不变的“广播器”transform()方法也对每个分组应用一个函数,但它的关键特性是:它返回的结果必须与原始分组的形状(行数)相同,并且会自动将结果对齐回原始DataFrame的索引。这使得它非常适合用于在组内进行数据标准化、填充缺失值、计算组内排名等操作,而不会改变原始DataFrame的结构。
# 计算每个产品的销售额占该产品总销售额的比例 df_complex['销售额占比'] = df_complex.groupby('产品')['销售额'].transform(lambda x: x / x.sum()) print("添加销售额占比列:") print(df_complex) print("-" * 30) # 填充每个区域的缺失销售额为该区域的平均销售额(假设有缺失值) df_with_nan = df_complex.copy() df_with_nan.loc[0, '销售额'] = np.nan df_with_nan.loc[4, '销售额'] = np.nan # 使用transform填充缺失值 df_with_nan['销售额_填充'] = df_with_nan.groupby('区域')['销售额'].transform(lambda x: x.fillna(x.mean())) print("\n填充缺失销售额后的数据:") print(df_with_nan)
transform则需要特别注意它的返回结果必须和输入组的行数一致,否则会报错。它的优点是性能通常比apply好,因为它更倾向于使用Pandas的内部优化。
掌握apply和transform,意味着你不再局限于简单的聚合,可以进行更细粒度的组内操作,并将结果无缝集成回原始数据结构中。它们是处理复杂分组逻辑,尤其是需要返回与原始数据等长结果时的强大工具。
以上就是Python怎样实现数据分组统计?groupby高级用法解析的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号