
在pandas中,许多初学者习惯于像处理普通python列表或字典一样,通过迭代dataframe的每一行来执行操作,例如使用df.iterrows()或df.apply()。然而,对于大型数据集而言,这些方法往往是性能瓶颈的根源。
例如,原始问题中提及的伪代码:
import os
import pandas as pd
# ... 文件路径设置 ...
dados = pd.read_csv(desktop + '\test-1000-rows.csv')
for i, row in dados.iterrows():
#for each item in a list
#check if row[column_a] or row[column_b] has the item as value
#add row[column_c] to a list if true这种逐行迭代的方式,在处理百万级别的数据时,会耗费大量时间,因为它无法充分利用Pandas和NumPy的底层优化,导致运行效率低下。
Pandas和NumPy的核心优势在于其对向量化操作的强大支持。向量化操作意味着您可以一次性对整个Series或DataFrame的列执行操作,而不是逐个元素地循环。这些操作通常在底层由C或Fortran实现,因此速度极快。
向量化操作的优势:
示例:替换循环
假设我们想创建一个新列,其值为现有列加1。使用iterrows()的低效方式可能是:
# 低效的循环方式 # new_column_values = [] # for index, row in df.iterrows(): # new_column_values.append(row['existing_column'] + 1) # df['new_column'] = new_column_values
而向量化操作则简洁高效:
import pandas as pd
# 假设 df 已经是一个 DataFrame
data = {'existing_column': [10, 20, 30, 40, 50],
'another_column': ['A', 'B', 'C', 'D', 'E']}
df = pd.DataFrame(data)
# 高效的向量化操作:对整个 'existing_column' 列执行加法
df['new_column'] = df['existing_column'] + 1
print(df)输出:
existing_column another_column new_column 0 10 A 11 1 20 B 21 2 30 C 31 3 40 D 41 4 50 E 51
即使是更复杂的条件判断和逻辑,Pandas也提供了向量化的方法,例如使用布尔索引、np.where()、df.isin()、df.str.contains()等。例如,如果需要检查多个列是否包含特定值并根据条件提取另一列,可以这样实现:
import pandas as pd
data = {
'column_a': ['apple', 'banana', 'orange', 'grape', 'apple'],
'column_b': ['red', 'yellow', 'green', 'purple', 'green'],
'column_c': [100, 200, 150, 300, 250]
}
df = pd.DataFrame(data)
# 定义要检查的列表
target_items = ['apple', 'grape']
target_keywords = ['green']
# 向量化操作:检查 column_a 是否在 target_items 中,或 column_b 是否包含 target_keywords
condition = (df['column_a'].isin(target_items)) |
(df['column_b'].isin(target_keywords))
# 根据条件提取 column_c 的值
result_list = df.loc[condition, 'column_c'].tolist()
print(f"符合条件并提取的 column_c 值: {result_list}")输出:
符合条件并提取的 column_c 值: [100, 150, 300, 250]
这种方法避免了显式循环,利用了Pandas底层的优化,大大提高了处理速度。
当CSV文件非常庞大,以至于无法一次性加载到内存中时,pd.read_csv()的chunksize参数就显得尤为重要。它允许您分块读取文件,每次只处理一部分数据,从而有效管理内存使用。
如何使用 chunksize:
import pandas as pd
import os
# 假设文件路径
# desktop = os.path.join(os.path.join(os.environ["USERPROFILE"]), "Desktop")
# file_path = os.path.join(desktop, 'large_data.csv')
# 为了示例,我们创建一个虚拟的大文件路径
file_path = 'large_data.csv'
# 实际应用中,请替换为您的真实文件路径
# 定义一个列表来收集处理后的结果
processed_results = []
# 使用 chunksize 分块读取和处理
# 每次读取 100000 行
print(f"开始分块处理文件:{file_path}")
for i, chunk in enumerate(pd.read_csv(file_path, chunksize=100000)):
print(f"正在处理第 {i+1} 个数据块 (包含 {len(chunk)} 行)...")
# 在每个 chunk 上执行向量化操作
# 例如,筛选出满足特定条件的行,并提取某一列
# 假设 chunk 包含 'column_a', 'column_b', 'column_c'
# 示例:筛选 'column_a' 为 'valueX' 且 'column_b' 包含 'keywordY' 的行
filtered_chunk = chunk[
(chunk['column_a'] == 'valueX') &
(chunk['column_b'].str.contains('keywordY', na=False))
]
# 将符合条件的 'column_c' 值添加到结果列表中
processed_results.extend(filtered_chunk['column_c'].tolist())
# 所有块处理完成后,processed_results 包含了所有符合条件的 column_c 值
print(f"文件处理完毕。共收集到 {len(processed_results)} 个符合条件的项。")
# 如果需要,可以将结果进一步处理或转换为 DataFrame
if processed_results:
final_output_df = pd.DataFrame({'result_column': processed_results})
print("
最终结果DataFrame头部:")
print(final_output_df.head())
else:
print("
没有找到符合条件的项。")注意事项:
优化Pandas处理大型CSV文件的性能,核心在于理解并利用其底层机制:
通过遵循这些原则,您将能够显著提升Python Pandas处理大型CSV文件的效率,从容应对百万级甚至亿级数据量的挑战。
以上就是Pandas高效处理大型CSV文件:告别iterrows(),拥抱向量化操作的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号