
当在 pandas dataframe 中通过循环或重复赋值创建大量新列时,可能会遇到 `performancewarning: dataframe is highly fragmented` 警告。此警告表明 dataframe 内存布局变得碎片化,导致性能下降。本文将深入探讨此警告的成因,并提供使用 `pd.concat` 方法高效、批量创建新列的专业解决方案,从而避免碎片化并提升数据处理效率。
PerformanceWarning: DataFrame is highly fragmented 警告通常在您对现有 DataFrame 反复执行列插入操作时出现。在 Pandas 中,DataFrame 的内存布局通常是为连续性访问优化的。当您使用 df['new_col'] = ... 这种方式逐个添加大量新列时,Pandas 可能会在底层执行多次内存重新分配操作。每次重新分配都可能导致数据在内存中的存储不再连续,从而形成“碎片”。
这种碎片化现象会带来两个主要问题:
考虑一个常见场景:从一个包含长字符串的列中,根据不同位置切片并生成数百甚至近千个新列。以下是导致警告的典型代码模式:
import pandas as pd
import numpy as np
import string
# 模拟一个包含长字符串的DataFrame
np.random.seed(0)
df_fragmented = pd.DataFrame({
"long_string": ["".join(np.random.choice(
[*string.printable[:62]], size=5000)) for _ in range(10000)]
})
def parse_long_string_fragmented(df):
# 假设需要从 long_string 中切片出 972 个新列
# 这是一个简化示例,实际可能需要更多列
df['a001'] = df['long_string'].str[0:2]
df['a002'] = df['long_string'].str[2:4]
df['a003'] = df['long_string'].str[4:13]
# ... 更多类似的列赋值操作,直到 a972
df['a972'] = df['long_string'].str[4994:]
return df
# 调用此函数时,会触发 PerformanceWarning
# result_fragmented = parse_long_string_fragmented(df_fragmented.copy())上述代码中,每次 df['aXXX'] = ... 都会尝试在现有 DataFrame 中插入新列。当列数非常多时,这种重复的插入操作会显著增加 DataFrame 的碎片化程度,并最终触发 PerformanceWarning。
为了避免 DataFrame 碎片化并提高性能,最佳实践是批量创建所有新列,然后一次性将它们添加到原始 DataFrame 中。pd.concat 函数是实现这一目标的高效工具。
核心思想是:
以下是使用 pd.concat 解决上述问题的具体实现:
import pandas as pd
import numpy as np
import string
# 1. 准备示例数据
np.random.seed(0)
df = pd.DataFrame({
"long_string": ["".join(np.random.choice(
[*string.printable[:62]], size=5000)) for _ in range(10000)]
})
# 2. 定义切片规则 (使用字典更具可读性)
# 这是一个包含 972 个切片规则的字典
slices_mapper = {f"a{i+1:03d}": (i*2, (i+1)*2) for i in range(249)} # 简化到249个,避免过长的输出
# 假设实际场景中,最后几列可能不是固定长度,例如:
slices_mapper["a250"] = (498, 500) # 模拟最后几列
slices_mapper["a251"] = (500, None) # 从500到字符串末尾
# 3. 定义解析函数,使用 pd.concat
def parse_long_string_optimized(df_input, mapper):
"""
高效解析长字符串列并创建多个新列,避免 DataFrame 碎片化。
Args:
df_input (pd.DataFrame): 包含 'long_string' 列的 DataFrame。
mapper (dict): 字典,键为新列名,值为元组 (start, end) 表示切片范围。
Returns:
pd.DataFrame: 包含原始列和所有新列的 DataFrame。
"""
# 使用字典推导式为每个新列生成一个 Series,然后通过 pd.concat 沿列方向合并
new_cols_df = pd.concat(
{
col_name: df_input["long_string"].str[start:end]
for col_name, (start, end) in mapper.items()
},
axis=1 # 沿列方向合并
)
# 将新生成的 DataFrame 与原始 DataFrame 进行连接
return df_input.join(new_cols_df)
# 4. 调用优化后的函数
result_optimized = parse_long_string_optimized(df, slices_mapper)
# 打印结果 DataFrame 的信息
print(result_optimized.head())
print(f"\nDataFrame 形状: {result_optimized.shape}")
print(f"DataFrame 列数: {len(result_optimized.columns)}")代码解释:
通过采纳 pd.concat 这种批量处理策略,您可以显著提升 Pandas 数据处理的效率和稳定性,尤其是在处理大规模数据集和复杂特征工程任务时。
以上就是解决 Pandas DataFrame 高度碎片化警告:高效创建多列的策略的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号