0

0

Python怎么读取一个大的CSV文件_pandas分块读取大型CSV文件策略

下次还敢

下次还敢

发布时间:2025-09-12 14:35:01

|

440人浏览过

|

来源于php中文网

原创

分块读取是处理大型CSV文件的核心策略,通过pandas的chunksize参数将文件分割为小块迭代加载,避免内存溢出;结合dtype优化、usecols筛选列、增量聚合及分块写入文件或数据库,可显著降低内存占用并提升处理效率。

python怎么读取一个大的csv文件_pandas分块读取大型csv文件策略

处理大型CSV文件,尤其是在内存有限的环境下,Python的pandas库提供了一个非常有效的策略:分块读取。核心思想是,不是一次性将整个文件加载到内存中,而是将其拆分成若干小块(chunks),逐块处理,这样可以显著降低内存占用,避免程序崩溃。

解决方案

当面对一个GB级别甚至更大的CSV文件时,直接使用

pd.read_csv()
往往会导致内存溢出(MemoryError)。我的经验告诉我,这时候最直接且有效的方法就是利用
read_csv
函数的
chunksize
参数。

chunksize
参数的作用是让
read_csv
返回一个迭代器(TextFileReader对象),每次迭代都会返回一个指定行数大小的DataFrame。这样,我们就可以在循环中逐个处理这些小块数据,而不是一次性加载全部。

import pandas as pd

file_path = 'your_large_file.csv'
chunk_size = 100000 # 例如,每次读取10万行

# 创建一个空的列表来存储处理后的数据块,如果需要最终合并的话
processed_chunks = []

try:
    # read_csv 返回一个TextFileReader对象,可以像迭代器一样使用
    for i, chunk in enumerate(pd.read_csv(file_path, chunksize=chunk_size)):
        print(f"正在处理第 {i+1} 个数据块,行数: {len(chunk)}")

        # 在这里对每个chunk进行你的数据处理、清洗、分析等操作
        # 例如,筛选特定列、计算均值、聚合数据等
        # processed_chunk = chunk[chunk['some_column'] > 0] 

        # 如果需要将处理后的数据块合并,可以添加到列表中
        # processed_chunks.append(processed_chunk)

        # 如果只是做一些统计或聚合,可能不需要存储整个chunk
        # 例如:total_sum += chunk['value_column'].sum()

except MemoryError:
    print("内存溢出!请尝试减小 chunk_size。")
except FileNotFoundError:
    print(f"文件未找到: {file_path}")
except Exception as e:
    print(f"读取或处理文件时发生错误: {e}")

# 如果之前存储了处理后的chunks,现在可以合并它们
# final_df = pd.concat(processed_chunks, ignore_index=True)
# print("所有数据块处理完毕并合并。")

这个策略的核心在于“化整为零”。每次只在内存中保留一小部分数据,处理完就释放掉,或者只保留处理结果,极大地缓解了内存压力。

立即学习Python免费学习笔记(深入)”;

为什么我的Python脚本在读取大型CSV时会崩溃?(内存管理与数据加载机制)

你肯定遇到过那种情况:一个看似普通的CSV文件,在本地编辑器里打开没啥问题,但一用Python跑

pd.read_csv()
就直接报
MemoryError
。这其实是个老生常谈的问题,但每次遇到还是让人头疼。根本原因在于
pandas.read_csv()
在默认情况下,会尝试将整个CSV文件的内容一次性加载到你的计算机内存(RAM)中,并构建一个完整的DataFrame对象。

如果你的CSV文件有几个GB,而你的机器只有8GB或16GB内存,那么很容易就会超出可用内存上限。要知道,DataFrame在内存中的占用通常会比原始CSV文件大,因为数据类型转换、索引创建以及Python对象本身的开销都会增加内存消耗。举个例子,一个存储整数的列,在CSV里可能只是几个字符,但在DataFrame里可能会被存储为64位的整型对象,占用8字节,加上Python对象的额外开销,内存占用会迅速膨胀。当操作系统发现程序请求的内存超过了物理内存加上交换空间(swap space)的总和时,就会抛出

MemoryError
,或者更糟的是,直接杀死进程以防止系统崩溃。理解这一点,我们就能明白分块读取的必要性了。

如何有效地处理大型CSV数据块?(迭代处理与增量聚合)

分块读取只是第一步,更关键的是如何有效地处理这些数据块。这不仅仅是把

chunksize
参数加上那么简单,它还涉及到你的数据处理目标。

如果你的最终目标是得到一个完整的、经过处理的DataFrame,并且你认为即使处理后的DataFrame仍然可以放入内存,那么你可以将每个处理后的

chunk
添加到一个列表中,然后在循环结束后使用
pd.concat()
将它们合并。但要小心,如果最终合并的DataFrame还是太大,你又会回到原点。

更多时候,我们处理大型CSV是为了进行一些统计分析或聚合操作,比如计算总和、平均值、计数、最大最小值,或者进行一些数据清洗和过滤,然后将结果保存到另一个文件。在这种情况下,我们根本不需要将所有数据块合并成一个巨大的DataFrame。

我的做法通常是这样的:

  1. 增量聚合: 如果你需要计算总和、平均值等,可以在循环中维护一个累加器。

    total_value = 0
    total_rows = 0
    for chunk in pd.read_csv(file_path, chunksize=chunk_size):
        total_value += chunk['value_column'].sum()
        total_rows += len(chunk)
    average_value = total_value / total_rows if total_rows else 0
    print(f"总平均值: {average_value}")

    对于更复杂的聚合,比如按某个列分组求和,你可以对每个

    chunk
    进行
    groupby().sum()
    操作,然后将每个
    chunk
    的聚合结果合并(例如,使用
    add
    方法或者先转为Series再合并)。

  2. 筛选与过滤: 如果你只需要CSV中的一部分行或列,可以在每个

    chunk
    中进行筛选,然后只保留符合条件的数据。

    TalkMe
    TalkMe

    与AI语伴聊天,练习外语口语

    下载
    filtered_data_chunks = []
    for chunk in pd.read_csv(file_path, chunksize=chunk_size):
        # 假设我们只关心 'status' 列为 'active' 的行
        filtered_chunk = chunk[chunk['status'] == 'active']
        if not filtered_chunk.empty:
            filtered_data_chunks.append(filtered_chunk)
    
    # 如果 filtered_data_chunks 不会太大,可以合并
    # final_filtered_df = pd.concat(filtered_data_chunks, ignore_index=True)
    
    # 或者直接将过滤后的数据写入新的CSV文件
    # if not filtered_data_chunks:
    #     pd.concat(filtered_data_chunks).to_csv('filtered_output.csv', index=False)
    # else:
    #     for i, fc in enumerate(filtered_data_chunks):
    #         if i == 0:
    #             fc.to_csv('filtered_output.csv', mode='w', header=True, index=False)
    #         else:
    #             fc.to_csv('filtered_output.csv', mode='a', header=False, index=False)
  3. 直接输出到数据库或新文件: 处理完每个

    chunk
    后,可以直接将结果写入数据库(使用
    to_sql
    )或新的CSV/Parquet文件。这是处理超大型数据集的常用方法,因为不需要在内存中保存中间结果。

    # 假设你已经有了一个数据库连接 engine
    # from sqlalchemy import create_engine
    # engine = create_engine('sqlite:///my_database.db')
    
    # 第一次写入时创建表头,后续追加
    first_chunk = True
    for chunk in pd.read_csv(file_path, chunksize=chunk_size):
        # 对 chunk 进行处理...
        processed_chunk = chunk.dropna() # 举例:删除空值
    
        # 写入新的CSV文件
        if first_chunk:
            processed_chunk.to_csv('processed_output.csv', mode='w', header=True, index=False)
            first_chunk = False
        else:
            processed_chunk.to_csv('processed_output.csv', mode='a', header=False, index=False)
    
        # 写入数据库 (如果需要)
        # processed_chunk.to_sql('my_table', con=engine, if_exists='append', index=False)

    这种方式的效率很高,因为它将内存消耗保持在最低水平,并将I/O操作分散开来。

除了分块读取,还有哪些策略可以优化大型CSV文件的处理?(性能调优与替代方案)

分块读取是解决内存问题的基石,但仅仅依靠它还不够。在实际工作中,我发现结合一些其他优化技巧,能让整个处理流程更加顺畅和高效。

  1. 精确指定数据类型(

    dtype
    :CSV文件通常是文本格式,
    pandas
    在读取时会尝试推断每一列的数据类型。这个推断过程本身需要消耗时间和内存。更重要的是,它可能会将本来可以用更小内存表示的列(比如只有0和1的列)推断为
    int64
    甚至
    object
    。通过在
    read_csv
    中明确指定
    dtype
    参数,可以显著减少内存占用和提高读取速度。

    # 示例:预先知道列的数据类型
    optimized_dtypes = {
        'id': 'int32',
        'category': 'category', # 对于重复值较少的字符串列,使用category类型可以节省大量内存
        'value': 'float32',
        'timestamp': 'datetime64[ns]'
    }
    
    for chunk in pd.read_csv(file_path, chunksize=chunk_size, dtype=optimized_dtypes):
        # ...处理
        pass

    这需要你对数据有一定的了解,或者可以先读取少量数据来分析其类型分布。

  2. 只读取所需列(

    usecols
    :如果你的CSV文件包含几十甚至上百列,但你只需要其中的几列进行分析,那么完全没必要读取所有列。使用
    usecols
    参数可以指定只加载感兴趣的列,这样可以大幅减少I/O开销和内存占用。

    # 假设我们只需要 'id', 'name', 'score' 这几列
    required_columns = ['id', 'name', 'score']
    for chunk in pd.read_csv(file_path, chunksize=chunk_size, usecols=required_columns):
        # ...处理
        pass
  3. 选择合适的解析引擎(

    engine
    pandas.read_csv
    默认使用C引擎(
    engine='c'
    ),它通常比Python引擎(
    engine='python'
    )快得多。但在某些特定情况下(例如,文件中有不规则的行或非常复杂的日期格式),Python引擎可能更健壮。通常情况下,保持默认的C引擎是最佳选择。

  4. 跳过不必要的行(

    skiprows
    ,
    nrows
    :如果文件开头有一些元数据行,可以使用
    skiprows
    跳过。如果只是想快速查看文件结构或进行小范围测试,可以使用
    nrows
    参数只读取文件的前N行。

  5. 考虑更高效的数据存储格式:对于真正意义上的“大数据”,CSV文件其实并不是最优选择。一旦数据经过清洗和预处理,我通常会将其转换为更高效的二进制格式,比如 ParquetFeather。这些格式是列式存储的,支持数据压缩,并且读取速度比CSV快几个数量级。下次需要分析时,直接读取Parquet文件会快很多,内存占用也更低。

    # 假设你已经处理完数据并得到了一个DataFrame
    # final_df.to_parquet('processed_data.parquet', index=False)
    # 以后读取:pd.read_parquet('processed_data.parquet')
  6. Dask DataFrames:如果你的数据集真的大到即使分块处理也感觉力不从心,或者需要进行复杂的分布式计算,那么 Dask 是一个值得考虑的工具。Dask DataFrames 模仿了pandas API,但它能够在比内存更大的数据集上运行,并且可以轻松地扩展到多核处理器或集群上。它通过将大型DataFrame分解成多个小的pandas DataFrames,并延迟计算,来实现“out-of-core”处理。

    # import dask.dataframe as dd
    # ddf = dd.read_csv(file_path, chunksize=chunk_size) # 或者直接 dd.read_csv(file_path)
    # result = ddf.groupby('category')['value'].mean().compute() # .compute() 触发实际计算

    Dask的学习曲线比纯pandas略高,但对于处理TB级别的数据集,它提供了强大的解决方案。

这些策略并非相互独立,而是可以组合使用的。在处理大型数据集时,往往需要根据具体情况灵活选择和搭配,才能找到最适合的解决方案。

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

760

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

639

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

762

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

619

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1285

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

549

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

579

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

709

2023.08.11

PHP WebSocket 实时通信开发
PHP WebSocket 实时通信开发

本专题系统讲解 PHP 在实时通信与长连接场景中的应用实践,涵盖 WebSocket 协议原理、服务端连接管理、消息推送机制、心跳检测、断线重连以及与前端的实时交互实现。通过聊天系统、实时通知等案例,帮助开发者掌握 使用 PHP 构建实时通信与推送服务的完整开发流程,适用于即时消息与高互动性应用场景。

3

2026.01.19

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 4.7万人学习

Django 教程
Django 教程

共28课时 | 3.2万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号