0

0

处理Pandas中带嵌入双引号的制表符分隔文件:实现精确读写回溯

碧海醫心

碧海醫心

发布时间:2025-11-15 12:59:10

|

285人浏览过

|

来源于php中文网

原创

处理pandas中带嵌入双引号的制表符分隔文件:实现精确读写回溯

在使用Pandas处理制表符分隔文件(TSV)时,我们经常会遇到一些非标准格式,其中一个常见且棘手的问题是字段值内部包含未转义的双引号,而整个字段又被双引号包裹。例如,一个字段可能是 `"Series 48SL–5 WEDGE–LOK, 2-56UNC-2B, 5.00", chem film, lock washer and flat"`,其中 `5.00"` 中的双引号并未被转义。标准的 `pd.read_csv` 方法在读取这类文件时,可能会错误地解析这些嵌入的引号,导致数据损坏;而 `df.to_csv` 在写回时,则可能以不同的方式转义,从而无法实现输入文件与输出文件的精确匹配。本教程将详细介绍如何有效解决这一挑战,确保数据在读取和写入过程中保持其原始格式的完整性。

理解问题:Pandas默认行为与非标准TSV

考虑以下制表符分隔数据示例 test.exp:

"HEADER"    "ID"    "Part Reference"    "Value" "Part_Description"
"PARTOCC:17306" "17306" "M1"    "48SL-5S-50-C-LF"   "Series 48SL–5 WEDGE–LOK, 2-56UNC-2B, 5.00", chem film, lock washer and flat"
"PARTOCC:17310" "17310" "M2"    "48SL-5S-50-C-LF"   "Series 48SL–5 WEDGE–LOK, 2-56UNC-2B, 5.00", chem film, lock washer and flat"
"PARTOCC:65494" "65494" "J4E"   "311P822-MC-095-BS-D"   "GSFC CPCI J3 RA MALE 95 Position 0.123" tails"

其中 Part_Description 字段的值,如 "Series 48SL–5 WEDGE–LOK, 2-56UNC-2B, 5.00", chem film, lock washer and flat",包含了一个未转义的嵌入双引号 5.00"。当我们尝试使用 pandas.read_csv 读取并立即使用 df.to_csv 写回时,会发现输出文件与输入文件不一致。例如,原始的 5.00", chem film... 可能会变成 5.00, chem film..."""。这是因为Pandas试图遵循标准的CSV/TSV转义规则,将嵌入的引号视为字段结束或需要双重转义,而这与原始文件的非标准格式冲突。

我们的目标是实现一个“读-写”回溯(roundtrip),即 check.exp 文件必须与 test.exp 文件完全一致。

解决方案一:使用Python csv 模块进行手动解析和处理

当文件格式不完全符合标准CSV/TSV规范,特别是当引用字符处理方式异常时,Python内置的 csv 模块提供了更底层的控制。通过设置 quoting=csv.QUOTE_NONE,我们可以指示解析器忽略引用规则,然后手动处理字段两端的引号。

此方法适用于以下情况:

  1. 确定每个字段都严格以双引号开始和结束。
  2. 字段内容中不包含制表符或换行符(如果包含,则需要更复杂的转义逻辑)。
import csv

def parse_non_standard_tsv(filepath: str) -> list[list[str]]:
    """
    使用csv模块解析非标准TSV文件,手动剥离字段两端的双引号。

    Args:
        filepath (str): TSV文件的路径。

    Returns:
        list[list[str]]: 解析后的数据,每行是一个字符串列表。
    """
    rows_data: list[list[str]] = []
    with open(filepath, newline="", encoding='utf-8') as f:
        # 使用QUOTE_NONE告诉csv模块不要处理引用,我们将手动处理
        reader = csv.reader(f, delimiter="\t", quoting=csv.QUOTE_NONE)

        # 读取并处理头部
        header_raw = next(reader)
        # 剥离每个头部字段两端的双引号
        header = [x[1:-1] for x in header_raw]
        rows_data.append(header)

        # 读取并处理数据行
        for row_raw in reader:
            # 剥离每个数据字段两端的双引号
            processed_row = [x[1:-1] for x in row_raw]
            rows_data.append(processed_row)
    return rows_data

# 示例文件路径
exp_fn = r"test.exp"

# 解析文件
parsed_data = parse_non_standard_tsv(exp_fn)

# 打印解析后的数据(前几行)
for i, row in enumerate(parsed_data):
    if i < 5: # 打印前5行
        print(row)
    else:
        break

# 注意:如果需要将数据写回原始的“坏”格式,此方法需要额外的编码逻辑。
# 直接使用csv.writer写回,默认会尝试转义内部引号,可能无法匹配原始输入。
# 例如,如果内部字段包含引号,csv.writer会将其双重转义。
# 如果仅是解析并用于内部处理,此方法非常有效。

此方法能成功将数据解析为干净的字符串列表。然而,如果目标是精确地将数据写回原始的“坏”格式(即不进行任何转义,保留嵌入的引号),则需要更定制化的写入逻辑,因为 csv.writer 默认会尝试对包含特殊字符的字段进行引用和转义。

解决方案二:自定义解码与编码函数实现精确回溯

为了实现输入与输出文件的字节级精确匹配,我们需要完全控制解码和编码过程,绕过Pandas或 csv 模块的默认转义逻辑。这要求我们根据文件的具体“坏”格式来编写自定义的 decode 和 encode 函数。

此方法是实现“输入 == 输出”的最可靠方式。

Khroma
Khroma

AI调色盘生成工具

下载
import sys

# 定义文件格式常量
END = "\n"  # 预期行结束符
DELIM = "\t"  # 预期分隔符
QUOT = '"'  # 预期引用字符

Row = list[str] # 定义行类型

def decode(line: str) -> Row:
    """
    解码一个非标准编码的CSV/TSV行。
    确保行以END结尾,按DELIM分割行,并验证每个字段是否以QUOT开始和结束,
    然后剥离这些外部的QUOT。

    Args:
        line (str): 待解码的单行字符串。

    Returns:
        Row: 解码后的字段列表。

    Raises:
        ValueError: 如果行格式不符合预期。
    """
    if not line.endswith(END):
        raise ValueError(f"行不以 {repr(END)} 结尾")

    # 移除行结束符
    line = line[:-len(END)]
    fields = line.split(DELIM)

    for i, field in enumerate(fields):
        # 验证字段是否被引用字符包裹
        if not (field.startswith(QUOT) and field.endswith(QUOT)):
            raise ValueError(f"字段 {i} 未被 {repr(QUOT)} 包裹: {repr(field)}")

        # 剥离字段两端的引用字符
        fields[i] = field[1:-1]
    return fields

def encode(row: Row) -> str:
    """
    将一行字段编码回其原始的非标准格式。
    为每个字段添加引用字符,然后用分隔符连接,最后添加行结束符。

    Args:
        row (Row): 待编码的字段列表。

    Returns:
        str: 编码后的单行字符串。
    """
    # 为每个字段添加引用字符并用分隔符连接
    line = DELIM.join([f"{QUOT}{field}{QUOT}" for field in row])
    # 添加行结束符
    return line + END

def exit_err(msg: str):
    """打印错误信息并退出程序。"""
    print(msg, file=sys.stderr)
    sys.exit(1)

# 示例文件路径
input_fn = "test.exp"
output_fn = "check.exp"

rows_data: list[Row] = []
try:
    with open(input_fn, 'r', encoding='utf-8') as f_in:
        # 解码头部
        header_line = next(f_in)
        header = decode(header_line)
        rows_data.append(header) # 将头部也视为数据的一部分,方便后续统一处理

        # 解码数据行
        for i, line in enumerate(f_in):
            rows_data.append(decode(line))

    with open(output_fn, "w", encoding='utf-8') as f_out:
        # 编码并写入头部
        f_out.write(encode(rows_data[0])) # 写入第一个元素(头部)

        # 编码并写入数据行
        for row in rows_data[1:]: # 从第二个元素开始写入数据
            f_out.write(encode(row))

    print(f"文件 '{input_fn}' 已成功读入并以相同格式写回至 '{output_fn}'。")
    # 验证输入与输出是否完全一致(在shell中可以使用 diff input.txt output.txt)
    # 在Python中也可以读取两个文件内容进行比较
    with open(input_fn, 'r', encoding='utf-8') as f_in_orig, \
         open(output_fn, 'r', encoding='utf-8') as f_out_new:
        if f_in_orig.read() == f_out_new.read():
            print("输入文件与输出文件内容完全一致。")
        else:
            print("警告:输入文件与输出文件内容不一致。")

except ValueError as e:
    exit_err(f"解码错误: {e}")
except FileNotFoundError:
    exit_err(f"文件 '{input_fn}' 未找到。")
except Exception as e:
    exit_err(f"发生意外错误: {e}")

运行上述代码后,通过 diff test.exp check.exp 命令(在Linux/macOS)或比较文件内容,可以验证 check.exp 与 test.exp 完全一致。这种方法提供了对文件格式的最高控制度,是实现精确回溯的首选。

解决方案三:结合正则表达式预处理与Pandas的escapechar

如果需要在读取数据后利用Pandas的强大DataFrame功能进行数据分析和处理,但又必须实现精确的回溯,那么可以采用一种折衷方案:在将数据传递给Pandas之前,使用正则表达式预处理文件内容,将嵌入的引号临时“转义”成Pandas可以理解的形式;在Pandas处理完毕并写入后,再将这些临时转义“还原”。

此方法适用于需要在Pandas DataFrame中进行操作,并且能够接受预处理和后处理的开销。

import csv
import re
from io import StringIO
import pandas as pd

# 示例文件路径
input_fn = "test.exp"
output_fn = "check.exp"

try:
    with open(input_fn, 'r', encoding='utf-8') as f:
        text = f.read()

    # 预处理:使用正则表达式将字段内部的未转义双引号替换为转义形式 \"
    # 这里我们假设嵌入的引号通常出现在数字后面,如 5.00"
    # 更通用的模式可能需要根据实际数据调整
    # 原始: "Series ..., 5.00", chem film..."
    # 目标: "Series ..., 5.00\"", chem film..." (Pandas能理解)
    # 确保只替换内部的引号,而不是字段的包裹引号
    # 这个正则表达式 (r'(\d+\.\d+)"') 是针对示例数据中 "5.00"" 的情况
    # 对于更复杂的内部引号,可能需要更精细的正则或更复杂的解析逻辑
    text = re.sub(r'(\d+\.\d+)"', r'\g<1>\\"', text)

    # 使用StringIO将处理后的文本作为文件对象传递给Pandas
    # quotechar='"': 指定双引号为引用字符
    # sep="\t": 指定制表符为分隔符
    # escapechar="\\": 指定反斜杠为转义字符,这样Pandas会把 \" 视为一个字面量引号
    df = pd.read_csv(StringIO(text), quotechar='"', sep="\t", escapechar="\\", dtype=str)

    # 创建一个StringIO对象用于捕获to_csv的输出
    out_f = StringIO()

    # 将DataFrame写回TSV格式
    df.to_csv(
        out_f,
        sep="\t",
        quoting=csv.QUOTE_ALL,  # 强制所有字段都被引用
        doublequote=False,      # 禁用双重引用内部引号(因为我们使用了escapechar)
        escapechar="\\",        # 使用反斜杠转义内部引号
        index=False,            # 不写入DataFrame索引
    )

    # 获取to_csv的输出文本
    text_output = out_f.getvalue()

    # 后处理:将Pandas生成的转义引号 \" 还原为原始的未转义引号 "
    text_output = text_output.replace(r"\"", '"')

    # 将最终文本写入输出文件
    with open(output_fn, "w", encoding='utf-8') as f_out:
        f_out.write(text_output)

    print(f"文件 '{input_fn}' 已通过Pandas处理并以相同格式写回至 '{output_fn}'。")
    # 验证输入与输出是否完全一致
    with open(input_fn, 'r', encoding='utf-8') as f_in_orig, \
         open(output_fn, 'r', encoding='utf-8') as f_out_new:
        if f_in_orig.read() == f_out_new.read():
            print("输入文件与输出文件内容完全一致。")
        else:
            print("警告:输入文件与输出文件内容不一致。")

except FileNotFoundError:
    print(f"错误:文件 '{input_fn}' 未找到。", file=sys.stderr)
    sys.exit(1)
except Exception as e:
    print(f"发生意外错误: {e}", file=sys.stderr)
    sys.exit(1)

此方法通过在Pandas读取和写入前后进行字符串级别的转换,成功地利用了Pandas的DataFrame功能,同时实现了原始文件格式的精确回溯。其关键在于 re.sub 的预处理和 replace 的后处理,以及 pd.read_csv 和 df.to_csv 中 escapechar 参数的正确使用。

总结与注意事项

处理带有嵌入未转义双引号的制表符分隔文件是一项挑战,尤其是在需要实现精确回溯时。本文介绍了三种主要策略:

  1. csv 模块与手动剥离: 适用于仅需读取数据并剥离外层引号进行内部处理的场景。对于写回原始“坏”格式,需要额外的定制化编码。
  2. 自定义解码与编码函数: 这是实现输入与输出文件字节级精确匹配的最直接和最可靠的方法。它提供了对文件格式的完全控制,适用于对数据完整性要求极高的场景。
  3. Pandas结合正则表达式预处理与escapechar: 当需要在读取数据后利用Pandas DataFrame进行复杂的数据操作时,此方法提供了一个优雅的解决方案。它通过临时转义和还原嵌入的引号,使得Pandas能够正确处理数据,同时满足回溯要求。

注意事项:

  • 理解数据格式: 在选择任何方法之前,务必彻底理解文件的具体“坏”格式。嵌入引号的模式、是否存在其他特殊字符(如未转义的制表符或换行符)都会影响方法的选择和实现细节。
  • 性能考量: 对于非常大的文件,自定义逐行处理(方法二)或正则表达式预处理(方法三)可能会比Pandas默认的C引擎解析稍慢。但对于非标准格式,性能往往需要让步于数据准确性。
  • 可维护性: 自定义解码/编码函数虽然强大,但需要仔细维护,以确保它能适应未来可能出现的格式变动。
  • 最佳实践: 尽可能推动数据源提供符合标准CSV/TSV规范的文件。这可以大大简化数据处理的复杂性。

通过选择适合您具体需求的方法,您可以有效地处理这些非标准数据文件,确保数据在整个处理流程中的完整性和一致性。

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

758

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

639

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

761

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

618

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1265

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

548

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

579

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

708

2023.08.11

高德地图升级方法汇总
高德地图升级方法汇总

本专题整合了高德地图升级相关教程,阅读专题下面的文章了解更多详细内容。

43

2026.01.16

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
PostgreSQL 教程
PostgreSQL 教程

共48课时 | 7.3万人学习

Git 教程
Git 教程

共21课时 | 2.8万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号