Pandas高效处理大型CSV文件:告别iterrows(),拥抱向量化操作

心靈之曲
发布: 2025-10-08 11:06:13
原创
721人浏览过

Pandas高效处理大型CSV文件:告别iterrows(),拥抱向量化操作

处理大型CSV文件时,Python Pandas的性能优化至关重要。本文将指导您避免使用低效的iterrows()和apply()方法,转而采用Pandas内置的向量化操作,以显著提升数据处理速度。对于内存受限的超大型文件,还将介绍如何利用chunksize参数分块读取和处理数据,确保流畅高效的工作流程。

理解性能瓶颈:为何避免 iterrows() 和 apply()

在pandas中,许多初学者习惯于像处理普通python列表或字典一样,通过迭代dataframe的每一行来执行操作,例如使用df.iterrows()或df.apply()。然而,对于大型数据集而言,这些方法往往是性能瓶颈的根源。

  • iterrows() 的低效率: 当您使用iterrows()时,Pandas会为每一行创建一个Series对象,这涉及大量的内部类型转换和对象创建,导致显著的开销。本质上,它将DataFrame的列式存储结构暂时转换为行式结构,然后逐行进行Python级别的迭代,这与Pandas底层C语言优化的操作背道而驰。
  • apply() 的局限性: 尽管apply()比iterrows()更灵活,但当其内部函数无法被Pandas优化(即不是Pandas内置的ufunc或无法被NumPy向量化)时,它也可能退化为Python级别的循环,性能同样不佳。

例如,原始问题中提及的伪代码:

import os
import pandas as pd

# ... 文件路径设置 ...
dados = pd.read_csv(desktop + '\test-1000-rows.csv')
for i, row in dados.iterrows():
    #for each item in a list
       #check if row[column_a] or row[column_b] has the item as value
          #add row[column_c] to a list if true
登录后复制

这种逐行迭代的方式,在处理百万级别的数据时,会耗费大量时间,因为它无法充分利用Pandas和NumPy的底层优化,导致运行效率低下。

拥抱向量化操作:Pandas的性能核心

Pandas和NumPy的核心优势在于其对向量化操作的强大支持。向量化操作意味着您可以一次性对整个Series或DataFrame的列执行操作,而不是逐个元素地循环。这些操作通常在底层由C或Fortran实现,因此速度极快。

向量化操作的优势:

  • 效率高: 避免了Python解释器的循环开销,直接调用优化过的底层代码。
  • 代码简洁: 通常一行代码即可完成原本需要多行循环才能实现的功能。
  • 可读性强: 表达意图更清晰,代码更易于理解和维护。

示例:替换循环

假设我们想创建一个新列,其值为现有列加1。使用iterrows()的低效方式可能是:

# 低效的循环方式
# new_column_values = []
# for index, row in df.iterrows():
#     new_column_values.append(row['existing_column'] + 1)
# df['new_column'] = new_column_values
登录后复制

而向量化操作则简洁高效:

import pandas as pd

# 假设 df 已经是一个 DataFrame
data = {'existing_column': [10, 20, 30, 40, 50],
        'another_column': ['A', 'B', 'C', 'D', 'E']}
df = pd.DataFrame(data)

# 高效的向量化操作:对整个 'existing_column' 列执行加法
df['new_column'] = df['existing_column'] + 1
print(df)
登录后复制

输出:

   existing_column another_column  new_column
0               10              A          11
1               20              B          21
2               30              C          31
3               40              D          41
4               50              E          51
登录后复制

即使是更复杂的条件判断和逻辑,Pandas也提供了向量化的方法,例如使用布尔索引、np.where()、df.isin()、df.str.contains()等。例如,如果需要检查多个列是否包含特定值并根据条件提取另一列,可以这样实现:

文心大模型
文心大模型

百度飞桨-文心大模型 ERNIE 3.0 文本理解与创作

文心大模型 56
查看详情 文心大模型
import pandas as pd

data = {
    'column_a': ['apple', 'banana', 'orange', 'grape', 'apple'],
    'column_b': ['red', 'yellow', 'green', 'purple', 'green'],
    'column_c': [100, 200, 150, 300, 250]
}
df = pd.DataFrame(data)

# 定义要检查的列表
target_items = ['apple', 'grape']
target_keywords = ['green']

# 向量化操作:检查 column_a 是否在 target_items 中,或 column_b 是否包含 target_keywords
condition = (df['column_a'].isin(target_items)) | 
            (df['column_b'].isin(target_keywords))

# 根据条件提取 column_c 的值
result_list = df.loc[condition, 'column_c'].tolist()
print(f"符合条件并提取的 column_c 值: {result_list}")
登录后复制

输出:

符合条件并提取的 column_c 值: [100, 150, 300, 250]
登录后复制

这种方法避免了显式循环,利用了Pandas底层的优化,大大提高了处理速度。

处理超大型文件:chunksize 的应用

当CSV文件非常庞大,以至于无法一次性加载到内存中时,pd.read_csv()的chunksize参数就显得尤为重要。它允许您分块读取文件,每次只处理一部分数据,从而有效管理内存使用。

如何使用 chunksize:

import pandas as pd
import os

# 假设文件路径
# desktop = os.path.join(os.path.join(os.environ["USERPROFILE"]), "Desktop")
# file_path = os.path.join(desktop, 'large_data.csv')

# 为了示例,我们创建一个虚拟的大文件路径
file_path = 'large_data.csv'
# 实际应用中,请替换为您的真实文件路径

# 定义一个列表来收集处理后的结果
processed_results = []

# 使用 chunksize 分块读取和处理
# 每次读取 100000 行
print(f"开始分块处理文件:{file_path}")
for i, chunk in enumerate(pd.read_csv(file_path, chunksize=100000)):
    print(f"正在处理第 {i+1} 个数据块 (包含 {len(chunk)} 行)...")

    # 在每个 chunk 上执行向量化操作
    # 例如,筛选出满足特定条件的行,并提取某一列
    # 假设 chunk 包含 'column_a', 'column_b', 'column_c'
    # 示例:筛选 'column_a' 为 'valueX' 且 'column_b' 包含 'keywordY' 的行
    filtered_chunk = chunk[
        (chunk['column_a'] == 'valueX') &
        (chunk['column_b'].str.contains('keywordY', na=False))
    ]

    # 将符合条件的 'column_c' 值添加到结果列表中
    processed_results.extend(filtered_chunk['column_c'].tolist())

# 所有块处理完成后,processed_results 包含了所有符合条件的 column_c 值
print(f"文件处理完毕。共收集到 {len(processed_results)} 个符合条件的项。")

# 如果需要,可以将结果进一步处理或转换为 DataFrame
if processed_results:
    final_output_df = pd.DataFrame({'result_column': processed_results})
    print("
最终结果DataFrame头部:")
    print(final_output_df.head())
else:
    print("
没有找到符合条件的项。")
登录后复制

注意事项:

  • chunksize 返回的是一个迭代器,每次迭代都会产生一个DataFrame块。
  • 在每个块内部,仍然应尽量使用向量化操作来保持高性能。
  • 如果最终需要将所有处理过的块合并成一个完整的DataFrame,可以考虑将每个块的结果存储到一个列表中,然后在循环结束后使用pd.concat()进行合并。然而,如果只是为了聚合或计算最终结果,如上面的processed_results.extend(),则无需合并整个DataFrame,直接收集所需数据即可。

总结与最佳实践

优化Pandas处理大型CSV文件的性能,核心在于理解并利用其底层机制:

  1. 避免 iterrows() 和 apply(): 它们通常是性能杀手。除非没有其他选择且数据集极小,否则应尽量避免。
  2. 优先使用向量化操作: 学习和实践Pandas及NumPy提供的向量化函数和方法。这不仅能提高代码效率,还能使代码更简洁易读。
  3. 合理利用 chunksize: 对于无法一次性加载到内存的超大型文件,分块处理是必不可少的策略,它能有效管理内存使用。
  4. 数据类型优化: 确保DataFrame中的列使用合适的数据类型(例如,使用category类型处理重复的字符串,使用更小的整数类型等),这可以减少内存占用并加速某些操作。
  5. 性能分析: 当您不确定哪部分代码是瓶颈时,使用Python的性能分析工具(如cProfile或line_profiler)可以帮助您定位问题,从而进行有针对性的优化。

通过遵循这些原则,您将能够显著提升Python Pandas处理大型CSV文件的效率,从容应对百万级甚至亿级数据量的挑战。

以上就是Pandas高效处理大型CSV文件:告别iterrows(),拥抱向量化操作的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号