0

0

清理带有冗余文本的CSV文件:Pandas高效导入策略

心靈之曲

心靈之曲

发布时间:2025-09-15 11:48:22

|

971人浏览过

|

来源于php中文网

原创

清理带有冗余文本的CSV文件:Pandas高效导入策略

本文旨在提供处理包含不必要头部和尾部文本的CSV文件的有效方法,确保使用Pandas库准确读取核心数据。文章将介绍两种主要的策略:一是通过逐行扫描定位数据起始点,然后利用pd.read_csv进行导入;二是通过整体读取文件内容,再结合Pandas的字符串处理功能进行数据清洗和结构化。这两种方法都能帮助开发者高效地从复杂CSV中提取所需信息。

在实际的数据处理场景中,我们经常会遇到格式不规范的csv文件。这些文件可能由自动化系统生成,或从遗留系统导出,其中包含报告标题、元数据、脚注或其他无关信息,使得标准pd.read_csv函数无法直接正确解析。这些冗余文本通常出现在文件开头(作为标题或说明)和文件末尾(作为签名或生成时间戳),而我们真正需要的数据(通常以列标题行开始)则被夹在其中。本文将详细探讨如何有效地识别并忽略这些无关文本,从而准确地将核心数据加载到pandas dataframe中。

处理带无关文本的CSV文件

核心挑战在于识别数据实际开始的行,即包含列标题的行。一旦确定了这一行,我们就可以指导Pandas从该行开始解析数据。对于文件末尾的无关文本,通常可以通过数据清洗步骤(如删除空行或特定模式的行)来处理。

我们将介绍两种主流的解决方案。

方法一:逐行定位头部并使用 pd.read_csv

这种方法的核心思想是先手动读取文件,逐行检查直到找到包含列标题的行,然后将文件指针重置或将剩余内容传递给pd.read_csv。这种方法对于文件头部有可预测模式的冗余文本特别有效。

原理说明: 我们打开CSV文件,逐行读取。在每次读取时,我们检查当前行是否包含我们预期的列标题(例如,通过检查是否包含某个关键列名)。一旦找到包含列标题的行,我们就可以确定数据区的起始位置。接下来,我们可以利用pd.read_csv的skiprows参数来跳过前面的冗余行,或者更优雅地,直接将已经定位到数据起始位置的文件对象传递给pd.read_csv。

代码示例:

Whimsical
Whimsical

Whimsical推出的AI思维导图工具

下载
import pandas as pd
import io

# 模拟一个包含冗余文本的CSV文件内容
sample_csv_content = """
SAMPLE FILE LTD

STUDENT NUMBERS

INFO OF ALL STUDENTS No :  from 27-Mar-2023 00:00:00 to 04-Apr-2023 00:00:00 and  from 05-Oct-2023 00:00:00 to 13-Oct-2023 00:00:00

Student,id,add,div,rank
ABC,12,USA,A,1
DEF,13,IND,C,2
XYZ,14,UK,E,3
PQR,15,DE,F,4


 This is System generated report, and needs no signature.

 14-Oct-2023 18:14:12
"""

def read_clean_csv_by_header_detection(file_path_or_content, header_indicator="Student"):
    """
    通过检测特定头部指示器来清洗并读取CSV文件。

    Args:
        file_path_or_content (str): CSV文件的路径或包含CSV内容的字符串。
        header_indicator (str): 用于识别数据头部的关键字符串。

    Returns:
        pd.DataFrame: 清理后的数据DataFrame。
    """
    if isinstance(file_path_or_content, str) and '\n' in file_path_or_content:
        # 如果是字符串内容,使用io.StringIO模拟文件
        file_obj = io.StringIO(file_path_or_content)
    else:
        # 如果是文件路径,直接打开文件
        file_obj = open(file_path_or_content, 'r')

    try:
        # 逐行读取直到找到头部
        lines_to_skip = 0
        while True:
            line = file_obj.readline()
            if not line: # 文件结束仍未找到
                raise ValueError(f"未找到包含 '{header_indicator}' 的头部行。")
            if header_indicator in line:
                # 找到头部行,将该行作为列名
                column_names = [col.strip() for col in line.strip().split(',')]
                break
            lines_to_skip += 1

        # 使用pd.read_csv从当前文件位置开始读取
        # names参数用于指定列名,因为我们已经手动获取了它们
        df = pd.read_csv(file_obj, names=column_names)

        # 清理可能存在的尾部冗余行(例如,全NaN的行)
        df = df.dropna(how='all')

        return df
    finally:
        if file_obj is not None and not isinstance(file_obj, io.StringIO):
            file_obj.close()

# 示例调用
# 对于实际文件:
# df_cleaned = read_clean_csv_by_header_detection("students.csv", header_indicator="Student")

# 对于模拟内容:
df_cleaned = read_clean_csv_by_header_detection(sample_csv_content, header_indicator="Student")
print(df_cleaned)

代码解析:

  1. 打开文件或模拟文件对象: io.StringIO允许我们将字符串内容当作文件对象来处理,方便测试和演示。
  2. 逐行扫描: while True循环逐行读取文件内容。
  3. 头部检测: if header_indicator in line:检查当前行是否包含我们预设的列名指示器(例如“Student”)。一旦找到,我们就认为这是数据头部的开始。
  4. 获取列名: 找到头部行后,我们从该行解析出实际的列名,并存储在column_names列表中。
  5. pd.read_csv读取: 关键在于,此时file_obj的文件指针已经停留在头部行的下一行,即第一行数据。我们直接将file_obj传递给pd.read_csv,并使用names=column_names来指定列名。这样,pd.read_csv会从当前位置开始读取,并使用我们提供的列名。
  6. 清理尾部: df.dropna(how='all')用于删除所有值都为NaN的行,这通常可以有效地移除文件末尾的空白行或完全不包含数据的冗余行。

注意事项:

  • header_indicator的选择至关重要,它应该是一个在实际数据头部中独有且稳定的字符串。
  • 此方法假设列标题行是一致的,且列分隔符是逗号。如果列分隔符不同,需要在pd.read_csv中指定sep参数。
  • 对于极大的文件,逐行读取可能比一次性加载整个文件更高效,因为它避免了将整个文件内容加载到内存中。

方法二:整体读取后利用Pandas字符串操作清洗

这种方法适用于文件头部和尾部的冗余文本模式不固定,或者需要更灵活的字符串处理能力的情况。它首先将整个文件内容读取为字符串,然后利用Pandas的强大字符串处理功能来识别和提取数据区域。

原理说明: 我们将整个CSV文件的内容读取为一个长字符串,然后将其按行分割成一个列表。这个列表可以被转换为一个单列的DataFrame。接着,我们利用Pandas的.str访问器进行字符串操作,例如查找包含特定模式的行来定位数据头部,然后对数据进行切片和重新格式化。

代码示例:

import pandas as pd
import io

# 模拟文件内容
sample_csv_content = """
SAMPLE FILE LTD

STUDENT NUMBERS

INFO OF ALL STUDENTS No :  from 27-Mar-2023 00:00:00 to 04-Apr-2023 00:00:00 and  from 05-Oct-2023 00:00:00 to 13-Oct-2023 00:00:00

Student,id,add,div,rank
ABC,12,USA,A,1
DEF,13,IND,C,2
XYZ,14,UK,E,3
PQR,15,DE,F,4


 This is System generated report, and needs no signature.

 14-Oct-2023 18:14:12
"""

def read_clean_csv_by_full_string_processing(file_path_or_content, header_pattern="Student,id"):
    """
    通过整体读取文件内容并使用Pandas字符串操作清洗CSV。

    Args:
        file_path_or_content (str): CSV文件的路径或包含CSV内容的字符串。
        header_pattern (str): 用于识别数据头部的完整字符串模式。

    Returns:
        pd.DataFrame: 清理后的数据DataFrame。
    """
    if isinstance(file_path_or_content, str) and '\n' in file_path_or_content:
        # 如果是字符串内容
        file_content = file_path_or_content
    else:
        # 如果是文件路径
        with open(file_path_or_content, 'r') as file:
            file_content = file.read()

    # 将整个文件内容按行分割,创建单列DataFrame
    df_raw = pd.DataFrame(file_content.split('\n'))

    # 清理空行
    df_raw = df_raw[df_raw[0].str.strip() != '']

    # 查找头部行的索引
    header_index = df_raw[df_raw[0].str.contains(header_pattern, na=False)].index[0]

    # 提取列名
    column_names = [col.strip() for col in df_raw.iloc[header_index, 0].split(',')]

    # 提取数据行,从头部下一行开始
    df_data = df_raw.iloc[header_index + 1:]

    # 将单列数据按逗号分割成多列
    df_processed = df_data[0].str.split(',', expand=True)

    # 设置列名
    df_processed.columns = column_names

    # 清理尾部可能存在的全NaN行
    df_processed = df_processed.dropna(how='all')

    return df_processed

# 示例调用
# 对于实际文件:
# df_cleaned_full = read_clean_csv_by_full_string_processing("students.csv", header_pattern="Student,id,add,div,rank")

# 对于模拟内容:
df_cleaned_full = read_clean_csv_by_full_string_processing(sample_csv_content, header_pattern="Student,id,add,div,rank")
print(df_cleaned_full)

代码解析:

  1. 读取全部内容: file.read()将整个文件内容读取为一个字符串。
  2. 创建原始DataFrame: pd.DataFrame(file_content.split('\n'))将字符串按换行符分割成行,并创建一个单列的DataFrame,每行是DataFrame的一个元素。
  3. 清理空行: df_raw[df_raw[0].str.strip() != '']移除了完全为空的行,有助于简化后续处理。
  4. 定位头部: df_raw[0].str.contains(header_pattern, na=False)使用正则表达式或字符串匹配来找到包含预定头部模式的行。.index[0]获取第一个匹配行的索引。
  5. 提取列名和数据: 根据找到的头部索引,我们可以iloc提取列名行和所有数据行。
  6. 分割数据: df_data[0].str.split(',', expand=True)将单列的数据行按逗号分割成多列,expand=True确保结果是DataFrame。
  7. 设置列名: 将之前提取的列名赋给新的DataFrame。
  8. 清理尾部: 同样,dropna(how='all')用于移除可能存在的尾部冗余行。

注意事项:

  • 此方法将整个文件内容加载到内存中。对于非常大的文件(GB级别),这可能会导致内存问题。
  • header_pattern应该是一个足够具体且唯一的模式,以准确识别头部行。
  • 这种方法在处理列分隔符不一致或数据格式更复杂的情况下,可能需要更复杂的字符串或正则表达式处理。

总结与最佳实践

选择哪种方法取决于你的具体需求和文件特性:

  • 方法一(逐行定位):

    • 优点: 内存效率高,适合处理大型文件;逻辑直观,易于理解。
    • 缺点: 头部指示器需要相对稳定且明确;如果头部行模式非常复杂或不固定,可能需要更复杂的逐行解析逻辑。
    • 适用场景: 文件头部冗余行数不固定但数据头部模式稳定,且文件可能非常大。
  • 方法二(整体读取后处理):

    • 优点: 灵活性强,可以使用Pandas强大的字符串处理功能进行更复杂的模式匹配和数据提取;代码结构紧凑。
    • 缺点: 对于超大文件可能存在内存压力;如果文件格式变化多端,header_pattern可能需要动态调整。
    • 适用场景: 文件大小适中,需要更灵活的头部/尾部模式识别和数据清洗。

通用性与鲁棒性:

  • 参数化: 将文件路径、头部指示器、分隔符等作为函数参数,提高代码的通用性。
  • 错误处理: 增加try-except块来处理文件不存在、头部指示器未找到等异常情况,提高程序的健壮性。
  • 日志记录: 在处理过程中添加日志,以便追踪文件处理状态和潜在问题。
  • 预处理: 如果文件编码不是UTF-8,需要在打开文件时指定正确的encoding参数。

通过以上两种方法,你可以有效地处理那些带有不规则头部和尾部文本的CSV文件,确保Pandas能够准确、高效地读取你真正关心的数据。在实际应用中,你可能需要根据文件的具体特点,对这些方法进行适当的调整和优化。

相关专题

更多
js正则表达式
js正则表达式

php中文网为大家提供各种js正则表达式语法大全以及各种js正则表达式使用的方法,还有更多js正则表达式的相关文章、相关下载、相关课程,供大家免费下载体验。

510

2023.06.20

正则表达式不包含
正则表达式不包含

正则表达式,又称规则表达式,,是一种文本模式,包括普通字符和特殊字符,是计算机科学的一个概念。正则表达式使用单个字符串来描述、匹配一系列匹配某个句法规则的字符串,通常被用来检索、替换那些符合某个模式的文本。php中文网给大家带来了有关正则表达式的相关教程以及文章,希望对大家能有所帮助。

247

2023.07.05

java正则表达式语法
java正则表达式语法

java正则表达式语法是一种模式匹配工具,它非常有用,可以在处理文本和字符串时快速地查找、替换、验证和提取特定的模式和数据。本专题提供java正则表达式语法的相关文章、下载和专题,供大家免费下载体验。

738

2023.07.05

java正则表达式匹配字符串
java正则表达式匹配字符串

在Java中,我们可以使用正则表达式来匹配字符串。本专题为大家带来java正则表达式匹配字符串的相关内容,帮助大家解决问题。

211

2023.08.11

正则表达式空格
正则表达式空格

正则表达式空格可以用“s”来表示,它是一个特殊的元字符,用于匹配任意空白字符,包括空格、制表符、换行符等。本专题为大家提供正则表达式相关的文章、下载、课程内容,供大家免费下载体验。

349

2023.08.31

Python爬虫获取数据的方法
Python爬虫获取数据的方法

Python爬虫可以通过请求库发送HTTP请求、解析库解析HTML、正则表达式提取数据,或使用数据抓取框架来获取数据。更多关于Python爬虫相关知识。详情阅读本专题下面的文章。php中文网欢迎大家前来学习。

293

2023.11.13

正则表达式空格如何表示
正则表达式空格如何表示

正则表达式空格可以用“s”来表示,它是一个特殊的元字符,用于匹配任意空白字符,包括空格、制表符、换行符等。想了解更多正则表达式空格怎么表示的内容,可以访问下面的文章。

232

2023.11.17

正则表达式中如何匹配数字
正则表达式中如何匹配数字

正则表达式中可以通过匹配单个数字、匹配多个数字、匹配固定长度的数字、匹配整数和小数、匹配负数和匹配科学计数法表示的数字的方法匹配数字。更多关于正则表达式的相关知识详情请看本专题下面的文章。php中文网欢迎大家前来学习。

528

2023.12.06

Java 桌面应用开发(JavaFX 实战)
Java 桌面应用开发(JavaFX 实战)

本专题系统讲解 Java 在桌面应用开发领域的实战应用,重点围绕 JavaFX 框架,涵盖界面布局、控件使用、事件处理、FXML、样式美化(CSS)、多线程与UI响应优化,以及桌面应用的打包与发布。通过完整示例项目,帮助学习者掌握 使用 Java 构建现代化、跨平台桌面应用程序的核心能力。

36

2026.01.14

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
AngularJS教程
AngularJS教程

共24课时 | 2.6万人学习

【李炎恢】ThinkPHP8.x 后端框架课程
【李炎恢】ThinkPHP8.x 后端框架课程

共50课时 | 4.4万人学习

Swoft2.x速学之http api篇课程
Swoft2.x速学之http api篇课程

共16课时 | 0.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号