在数据处理工作中,经常需要应对大量 CSV 文件的整合任务。这些文件通常具有相同的结构,需合并到一个统一的数据源中进行查询和分析。SQLite 是一款轻量级嵌入式数据库,特别适合此类场景,尤其是在数据规模适中、无需复杂数据库服务器的情况下。
下面是一个完整的操作流程,展示如何借助 Python 和 SQLite 来处理大批量的 CSV 文件,并建立一个汇总所有数据的主表。
首先确认是否已安装必要的 Python 模块:pandas 和 sqlite3。如未安装,可通过 pip 命令安装:
pip install pandas sqlite3
import pandas as pd import sqlite3 import os import re <h1>设置 CSV 文件所在路径</h1><p>csv_directory = r"path/to/your/csv/files" # 将 "path/to/your/csv/files" 替换为实际路径</p><p><span>立即学习</span>“<a href="https://pan.quark.cn/s/00968c3c2c15" style="text-decoration: underline !important; color: blue; font-weight: bolder;" rel="nofollow" target="_blank">Python免费学习笔记(深入)</a>”;</p><h1>连接或创建 SQLite 数据库</h1><p>conn = sqlite3.connect("db.db") cursor = conn.cursor()</p><h1>获取目录下所有 CSV 文件</h1><p>csv_files = [file for file in os.listdir(csv_directory) if file.endswith(".csv")]</p><h1>定义主表名称</h1><p>master_bus = "master_table"</p><h1>清理主表名中的非法字符</h1><p>master_bus = re.sub(r'\W ', '', master_bus) # 移除非字母数字字符</p><h1>遍历每个 CSV 文件并导入数据库</h1><p>for csv_file in csv_files: table_name = os.path.splitext(csv_file)[0] csv_path = os.path.join(csv_directory, csv_file)</p><pre class="brush:php;toolbar:false"># 使用 pandas 读取 CSV 文件 df = pd.read_csv(csv_path) # 添加记录来源文件名的新列 df['filename'] = os.path.basename(csv_file) # 将 DataFrame 写入数据库,表名为文件名 df.to_sql(table_name, conn, index=False, if_exists='replace') # 若表存在则替换
cursor.execute("SELECT name FROM sqlite_master WHERE type='table';") tables = cursor.fetchall() tables = [table[0] for table in tables]
cursor.execute(f"DROP TABLE IF EXISTS {master_bus}")
if tables: # 确保有子表存在 cursor.execute(f"CREATE TABLE {master_bus} AS SELECT * FROM {tables[0]} WHERE 0;")
# 将所有子表数据插入主表 for table in tables: cursor.execute(f"INSERT INTO {master_bus} SELECT * FROM {table};")
else: print("没有发现可用子表,无法创建主表。")
conn.commit() conn.close()
print("数据处理完成!")
该错误多由表名含特殊字符(如 -)导致。解决办法是通过正则表达式移除非法字符:
master_bus = re.sub(r'\W ', '', master_bus)
此行代码利用正则表达式匹配所有非字母数字字符并替换为空,以保证表名合法。
异常处理: 实际应用时应加入 try...except 结构来捕获可能发生的异常,比如文件找不到、读取失败等。
性能调优: 面对超大体积的 CSV 文件,可采用分批读取方式,并配合 chunksize 参数:
for chunk in pd.read_csv(csv_path, chunksize=10000): chunk.to_sql(table_name, conn, index=False, if_exists='append')
此方式每次处理 10000 行数据,避免内存溢出。
索引设置: 如需频繁查询主表,建议添加索引提升效率。例如:
cursor.execute(f"CREATE INDEX idx_filename ON {master_bus}(filename);")
字段类型控制: 默认情况下,pandas 会自动推断字段类型。如需精确控制,可在 to_sql 方法中通过 dtype 参数指定各列类型。
事务管理: 对大规模数据写入操作,启用事务可显著提升性能。示例:
conn.execute("BEGIN TRANSACTION") try:</p><h1>执行批量写入操作</h1><pre class="brush:php;toolbar:false"> conn.commit()
except: conn.rollback() raise
本文详细讲解了如何结合 Python 与 SQLite 来处理大量 CSV 文件,并最终生成一个整合所有数据的主表。通过清理无效字符、增加异常处理机制、优化性能参数等方式,能够更加高效地完成数据整合工作。在具体项目中,应根据实际情况灵活调整和优化实现方案。
以上就是使用 SQLite 和 Python 处理大量 CSV 文件:最佳实践指南的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号