0

0

优化大规模CSV文件读取:解决Pandas与XGBoost内存问题的策略

DDD

DDD

发布时间:2025-11-26 11:08:51

|

267人浏览过

|

来源于php中文网

原创

优化大规模CSV文件读取:解决Pandas与XGBoost内存问题的策略

本文旨在解决使用pandas和多进程读取数千个大型csv文件时遇到的内存溢出问题。我们将探讨两种核心策略:一是利用xgboost的外部内存dmatrix功能,避免一次性加载全部数据进行模型训练;二是通过优化pandas的并行读取流程,包括合理选择线程池而非进程池,并避免在循环中频繁拼接dataframe,从而提高效率并减少内存消耗。

1. 大规模CSV文件读取的内存挑战

在处理海量数据集时,例如将数千个CSV文件合并成一个大型DataFrame以供机器学习模型训练,内存溢出是一个常见且棘手的问题。尤其当数据集规模达到数十GB甚至更大时,即使拥有数十GB内存的计算实例也可能难以应对。传统的做法是使用pandas.read_csv结合Python的multiprocessing模块并行读取文件,然后通过pd.concat将结果合并。然而,这种方法在以下两个方面容易导致内存瓶颈:

  1. 进程间数据拷贝与开销: ProcessPoolExecutor会为每个任务创建独立的进程,每个进程拥有自己的内存空间。当每个进程读取一个大型CSV文件并返回一个DataFrame时,这些DataFrame需要被序列化并在主进程中反序列化,这会产生显著的内存和CPU开销。
  2. pd.concat的低效使用: 在循环中频繁地使用pd.concat将新读取的DataFrame与现有DataFrame进行拼接,会导致大量的中间DataFrame对象生成和数据拷贝。每次拼接都可能需要重新分配内存来容纳更大的DataFrame,这不仅效率低下,更是内存消耗的黑洞。

2. 针对XGBoost的外部内存解决方案

如果最终目标是将处理后的数据用于XGBoost模型训练,那么最直接且高效的解决方案是利用XGBoost自身提供的外部内存(External Memory)功能。XGBoost从1.5版本开始支持自定义迭代器,允许用户以分块(chunk)的方式加载数据进行训练,从而避免将整个数据集一次性载入内存。

这种方法的核心是使用XGBoost.DMatrix,并配置其外部内存特性。这意味着您不需要预先将所有CSV文件合并成一个巨大的Pandas DataFrame。相反,您可以创建一个数据迭代器,XGBoost在训练过程中会按需从该迭代器中获取数据块。这对于处理远超机器物理内存限制的数据集尤为关键。

核心优势:

  • 内存效率高: 避免一次性加载全部数据,显著降低内存需求。
  • 扩展性强: 能够处理任意大小的数据集,只要存储空间足够。
  • 训练与预测均适用: 外部内存功能不仅可用于训练,也可用于预测和评估。

使用示例(概念性):

虽然具体实现需要根据XGBoost的官方文档构建自定义数据迭代器,但其基本思想是提供一个可迭代对象,每次迭代返回一个数据块。

VisualizeAI
VisualizeAI

用AI把你的想法变成现实

下载
import xgboost as xgb
import pandas as pd
from typing import List

# 假设您有一个自定义的迭代器类,用于分块读取CSV文件
class CSVBatchIterator(xgb.DataIter):
    def __init__(self, file_paths: List[str], batch_size: int):
        super().__init__()
        self.file_paths = file_paths
        self.batch_size = batch_size
        self.it = iter(self._read_chunks())
        self.data = None
        self.labels = None

    def _read_chunks(self):
        # 这是一个简化示例,实际可能需要更复杂的逻辑来处理跨文件分块
        for path in self.file_paths:
            df = pd.read_csv(path)
            # 假设最后一列是标签,其余是特征
            features = df.iloc[:, :-1]
            labels = df.iloc[:, -1]

            # 进一步将单个文件的DataFrame分块
            for i in range(0, len(features), self.batch_size):
                yield features.iloc[i:i+self.batch_size], labels.iloc[i:i+self.batch_size]

    def next(self, input_data):
        try:
            features, labels = next(self.it)
            self.data = features
            self.labels = labels
            input_data(data=self.data, label=self.labels)
            return 1 # Return 1 for successful iteration
        except StopIteration:
            return 0 # Return 0 for end of iteration

# 示例使用
# file_paths = ["path/to/file1.csv", "path/to/file2.csv", ...]
# batch_iterator = CSVBatchIterator(file_paths, batch_size=100000)
# dtrain = xgb.DMatrix(batch_iterator)
#
# # 训练模型
# # params = {'objective': 'binary:logistic', 'eval_metric': 'logloss'}
# # bst = xgb.train(params, dtrain)

注意事项: 实际的外部内存DMatrix实现会比上述示例更复杂,需要仔细遵循XGBoost官方文档中关于自定义数据迭代器的指导。核心思想是避免在Python层面将所有数据加载到内存,而是让XGBoost在底层直接处理数据流。

3. 优化Pandas并行读取策略

如果您的场景不直接使用XGBoost的外部内存功能,或者需要先将数据整合为Pandas DataFrame进行其他预处理,那么优化Pandas的并行读取策略是关键。

3.1 线程池与进程池的选择

对于文件I/O密集型操作(如pd.read_csv),concurrent.futures.ThreadPoolExecutor通常是比ProcessPoolExecutor更优的选择。

  • I/O密集型任务: 文件读取操作大部分时间都在等待磁盘或网络I/O,而不是CPU计算。在这种情况下,使用多线程可以有效利用I/O等待时间,一个线程在等待时,其他线程可以继续读取文件。
  • 内存共享与开销: 线程共享同一进程的内存空间,避免了进程间昂贵的数据序列化和反序列化开销,以及每个进程独立的内存副本。这显著降低了内存使用量和上下文切换的成本。
  • GIL的影响: 尽管Python的全局解释器锁(GIL)限制了多线程在CPU密集型任务中的并行性,但对于I/O密集型任务,当线程执行I/O操作时,GIL会被释放,允许其他线程运行。

3.2 避免循环内频繁拼接DataFrame

如前所述,在循环中反复使用pd.concat是导致内存和性能问题的主要原因之一。正确的做法是收集所有子DataFrame到一个列表中,然后在所有读取任务完成后,执行一次性的大规模拼接。

优化后的代码示例:

import pandas as pd
import multiprocessing as mp
from concurrent.futures import ThreadPoolExecutor, wait, FIRST_EXCEPTION
from typing import List
import logging

logger = logging.getLogger(__name__)

def _read_training_data(training_data_path: str) -> pd.DataFrame:
    """
    单个CSV文件读取函数。
    """
    df = pd.read_csv(training_data_path)
    return df

def read_training_data_optimized(
    paths: List[str]
) -> pd.DataFrame:
    """
    优化后的并行读取训练数据函数。

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

755

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

636

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

758

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

618

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1262

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

547

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

577

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

707

2023.08.11

Golang gRPC 服务开发与Protobuf实战
Golang gRPC 服务开发与Protobuf实战

本专题系统讲解 Golang 在 gRPC 服务开发中的完整实践,涵盖 Protobuf 定义与代码生成、gRPC 服务端与客户端实现、流式 RPC(Unary/Server/Client/Bidirectional)、错误处理、拦截器、中间件以及与 HTTP/REST 的对接方案。通过实际案例,帮助学习者掌握 使用 Go 构建高性能、强类型、可扩展的 RPC 服务体系,适用于微服务与内部系统通信场景。

8

2026.01.15

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 0.9万人学习

Django 教程
Django 教程

共28课时 | 3.1万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.1万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号