
在实际的数据处理场景中,我们经常会遇到格式不规范的csv文件。这些文件可能由自动化系统生成,或从遗留系统导出,其中包含报告标题、元数据、脚注或其他无关信息,使得标准pd.read_csv函数无法直接正确解析。这些冗余文本通常出现在文件开头(作为标题或说明)和文件末尾(作为签名或生成时间戳),而我们真正需要的数据(通常以列标题行开始)则被夹在其中。本文将详细探讨如何有效地识别并忽略这些无关文本,从而准确地将核心数据加载到pandas dataframe中。
核心挑战在于识别数据实际开始的行,即包含列标题的行。一旦确定了这一行,我们就可以指导Pandas从该行开始解析数据。对于文件末尾的无关文本,通常可以通过数据清洗步骤(如删除空行或特定模式的行)来处理。
我们将介绍两种主流的解决方案。
这种方法的核心思想是先手动读取文件,逐行检查直到找到包含列标题的行,然后将文件指针重置或将剩余内容传递给pd.read_csv。这种方法对于文件头部有可预测模式的冗余文本特别有效。
原理说明: 我们打开CSV文件,逐行读取。在每次读取时,我们检查当前行是否包含我们预期的列标题(例如,通过检查是否包含某个关键列名)。一旦找到包含列标题的行,我们就可以确定数据区的起始位置。接下来,我们可以利用pd.read_csv的skiprows参数来跳过前面的冗余行,或者更优雅地,直接将已经定位到数据起始位置的文件对象传递给pd.read_csv。
代码示例:
import pandas as pd
import io
# 模拟一个包含冗余文本的CSV文件内容
sample_csv_content = """
SAMPLE FILE LTD
STUDENT NUMBERS
INFO OF ALL STUDENTS No : from 27-Mar-2023 00:00:00 to 04-Apr-2023 00:00:00 and from 05-Oct-2023 00:00:00 to 13-Oct-2023 00:00:00
Student,id,add,div,rank
ABC,12,USA,A,1
DEF,13,IND,C,2
XYZ,14,UK,E,3
PQR,15,DE,F,4
This is System generated report, and needs no signature.
14-Oct-2023 18:14:12
"""
def read_clean_csv_by_header_detection(file_path_or_content, header_indicator="Student"):
"""
通过检测特定头部指示器来清洗并读取CSV文件。
Args:
file_path_or_content (str): CSV文件的路径或包含CSV内容的字符串。
header_indicator (str): 用于识别数据头部的关键字符串。
Returns:
pd.DataFrame: 清理后的数据DataFrame。
"""
if isinstance(file_path_or_content, str) and '\n' in file_path_or_content:
# 如果是字符串内容,使用io.StringIO模拟文件
file_obj = io.StringIO(file_path_or_content)
else:
# 如果是文件路径,直接打开文件
file_obj = open(file_path_or_content, 'r')
try:
# 逐行读取直到找到头部
lines_to_skip = 0
while True:
line = file_obj.readline()
if not line: # 文件结束仍未找到
raise ValueError(f"未找到包含 '{header_indicator}' 的头部行。")
if header_indicator in line:
# 找到头部行,将该行作为列名
column_names = [col.strip() for col in line.strip().split(',')]
break
lines_to_skip += 1
# 使用pd.read_csv从当前文件位置开始读取
# names参数用于指定列名,因为我们已经手动获取了它们
df = pd.read_csv(file_obj, names=column_names)
# 清理可能存在的尾部冗余行(例如,全NaN的行)
df = df.dropna(how='all')
return df
finally:
if file_obj is not None and not isinstance(file_obj, io.StringIO):
file_obj.close()
# 示例调用
# 对于实际文件:
# df_cleaned = read_clean_csv_by_header_detection("students.csv", header_indicator="Student")
# 对于模拟内容:
df_cleaned = read_clean_csv_by_header_detection(sample_csv_content, header_indicator="Student")
print(df_cleaned)代码解析:
注意事项:
这种方法适用于文件头部和尾部的冗余文本模式不固定,或者需要更灵活的字符串处理能力的情况。它首先将整个文件内容读取为字符串,然后利用Pandas的强大字符串处理功能来识别和提取数据区域。
原理说明: 我们将整个CSV文件的内容读取为一个长字符串,然后将其按行分割成一个列表。这个列表可以被转换为一个单列的DataFrame。接着,我们利用Pandas的.str访问器进行字符串操作,例如查找包含特定模式的行来定位数据头部,然后对数据进行切片和重新格式化。
代码示例:
import pandas as pd
import io
# 模拟文件内容
sample_csv_content = """
SAMPLE FILE LTD
STUDENT NUMBERS
INFO OF ALL STUDENTS No : from 27-Mar-2023 00:00:00 to 04-Apr-2023 00:00:00 and from 05-Oct-2023 00:00:00 to 13-Oct-2023 00:00:00
Student,id,add,div,rank
ABC,12,USA,A,1
DEF,13,IND,C,2
XYZ,14,UK,E,3
PQR,15,DE,F,4
This is System generated report, and needs no signature.
14-Oct-2023 18:14:12
"""
def read_clean_csv_by_full_string_processing(file_path_or_content, header_pattern="Student,id"):
"""
通过整体读取文件内容并使用Pandas字符串操作清洗CSV。
Args:
file_path_or_content (str): CSV文件的路径或包含CSV内容的字符串。
header_pattern (str): 用于识别数据头部的完整字符串模式。
Returns:
pd.DataFrame: 清理后的数据DataFrame。
"""
if isinstance(file_path_or_content, str) and '\n' in file_path_or_content:
# 如果是字符串内容
file_content = file_path_or_content
else:
# 如果是文件路径
with open(file_path_or_content, 'r') as file:
file_content = file.read()
# 将整个文件内容按行分割,创建单列DataFrame
df_raw = pd.DataFrame(file_content.split('\n'))
# 清理空行
df_raw = df_raw[df_raw[0].str.strip() != '']
# 查找头部行的索引
header_index = df_raw[df_raw[0].str.contains(header_pattern, na=False)].index[0]
# 提取列名
column_names = [col.strip() for col in df_raw.iloc[header_index, 0].split(',')]
# 提取数据行,从头部下一行开始
df_data = df_raw.iloc[header_index + 1:]
# 将单列数据按逗号分割成多列
df_processed = df_data[0].str.split(',', expand=True)
# 设置列名
df_processed.columns = column_names
# 清理尾部可能存在的全NaN行
df_processed = df_processed.dropna(how='all')
return df_processed
# 示例调用
# 对于实际文件:
# df_cleaned_full = read_clean_csv_by_full_string_processing("students.csv", header_pattern="Student,id,add,div,rank")
# 对于模拟内容:
df_cleaned_full = read_clean_csv_by_full_string_processing(sample_csv_content, header_pattern="Student,id,add,div,rank")
print(df_cleaned_full)代码解析:
注意事项:
选择哪种方法取决于你的具体需求和文件特性:
方法一(逐行定位):
方法二(整体读取后处理):
通用性与鲁棒性:
通过以上两种方法,你可以有效地处理那些带有不规则头部和尾部文本的CSV文件,确保Pandas能够准确、高效地读取你真正关心的数据。在实际应用中,你可能需要根据文件的具体特点,对这些方法进行适当的调整和优化。
以上就是清理带有冗余文本的CSV文件:Pandas高效导入策略的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号