
在数据分析和处理中,我们经常会遇到需要根据非精确匹配条件合并(或连接)两个DataFrame的场景。其中一个常见的需求是,将一个DataFrame中的记录与另一个DataFrame中某个时间戳落在特定时间范围内的记录进行关联。传统的迭代方法虽然直观,但在处理大量数据时往往效率低下。本文将介绍一种利用NumPy广播机制实现此类时间范围条件合并的高效策略。
假设我们有两个DataFrame:
我们的目标是,对于 df1 中的每一行,找到 df2 中所有 time_3 值介于 df1 当前行的 time_1 和 time_2 之间的行,并将它们合并起来。这意味着 df1 中的一行可能会与 df2 中的多行匹配,从而在结果DataFrame中重复出现。
以下是使用传统Python循环实现此逻辑的示例:
import pandas as pd
import numpy as np
# 模拟数据
data1 = {
'time_1': pd.to_datetime(['2023-10-01 04:02:00', '2023-10-01 04:03:00']),
'time_2': pd.to_datetime(['2023-10-01 08:29:00', '2023-10-01 08:49:00']),
'dummy_data': [-245.67, -1772.95]
}
df1 = pd.DataFrame(data1)
data2 = {
'time_3': pd.to_datetime([
'2023-10-01 06:21:13.238024',
'2023-10-01 06:47:19.796628',
'2023-10-01 07:37:06.438740',
'2023-10-01 08:16:16.995256',
'2023-10-01 08:33:53.081095'
]),
'dummy_data2': [-131.37, -236.28, 5.92, -134.03, -103.73]
}
df2 = pd.DataFrame(data2)
# 传统循环方法(效率低下)
# indexes = {}
# for i in df1.index:
# s = df2['time_3'].between(df1.loc[i]['time_1'],
# df1.loc[i]['time_2'],
# inclusive='left')
# friends = list(s[s == True].index)
# indexes[i] = friends
# output_df_slow = pd.DataFrame()
# for key in indexes.keys():
# for idx in indexes[key]:
# output_df_slow = pd.concat([df1.loc[[key]],
# df2.loc[[idx]]],
# axis=1, ignore_index=True) # 修改为loc[[key]]和loc[[idx]]以保留DataFrame结构
# print(output_df_slow)上述循环方法在DataFrame规模较小时尚可接受,但当 df1 和 df2 拥有大量行时,嵌套循环和反复的 loc 操作会导致显著的性能问题,因为它们本质上是逐行处理,无法充分利用Pandas和NumPy底层优化的向量化操作。
NumPy的广播(Broadcasting)机制允许我们对不同形状的数组执行算术运算,其核心思想是自动扩展较小数组以匹配较大数组的形状。在条件合并的场景中,我们可以利用广播一次性比较 df1 中的所有时间范围与 df2 中的所有时间点,从而避免显式循环。
重置索引(可选但推荐):为了确保在后续 iloc 操作中索引的连续性和准确性,建议在操作前重置两个DataFrame的索引。如果原始索引有特殊含义且不希望丢失,可以在重置前保存。
df1_reset = df1.reset_index(drop=True) df2_reset = df2.reset_index(drop=True)
准备数据进行广播:将需要比较的时间列转换为NumPy数组。关键在于对 df1 的时间范围列进行整形,使其变为列向量([:, None]),这样在与 df2 的时间点(行向量)进行比较时,NumPy会自动将它们广播成一个 N x M 的矩阵,其中 N 是 df1 的行数,M 是 df2 的行数。
t1 = df1_reset["time_1"].to_numpy()[:, None] # 转换为列向量 t2 = df1_reset["time_2"].to_numpy()[:, None] # 转换为列向量 t3 = df2_reset["time_3"].to_numpy() # 保持为行向量
执行广播比较:通过简单的逻辑运算符,我们可以实现时间范围的条件判断。结果将是一个布尔矩阵,指示 df1 的每一行与 df2 的每一行是否满足条件。
# 广播比较:(t1 < t3) & (t3 < t2) # 结果是一个 N x M 的布尔矩阵 # 假设 time_1 <= time_3 < time_2 (根据问题描述的inclusive='left') # 如果需要包含 time_2,则改为 (t1 <= t3) & (t3 <= t2) # 这里我们采用 (t1 <= t3) & (t3 < t2) 对应 inclusive='left' match_matrix = (t1 <= t3) & (t3 < t2)
获取匹配的索引对:使用 .nonzero() 方法可以获取布尔矩阵中所有 True 值的坐标。这些坐标将以两个数组的形式返回:第一个数组包含 True 值所在的行索引(对应 df1),第二个数组包含 True 值所在的列索引(对应 df2)。
x_indices, y_indices = match_matrix.nonzero() # x_indices 存储 df1_reset 中匹配的行索引 # y_indices 存储 df2_reset 中匹配的行索引
组合结果DataFrame:最后,利用 iloc 根据 x_indices 和 y_indices 从 df1_reset 和 df2_reset 中选择相应的行,并通过 pd.concat 将它们水平拼接起来。
result_df = pd.concat(
[
df1_reset.iloc[x_indices].reset_index(drop=True),
df2_reset.iloc[y_indices].reset_index(drop=True),
],
axis=1,
)
print(result_df)import pandas as pd
import numpy as np
# 模拟数据
data1 = {
'time_1': pd.to_datetime(['2023-10-01 04:02:00', '2023-10-01 04:03:00']),
'time_2': pd.to_datetime(['2023-10-01 08:29:00', '2023-10-01 08:49:00']),
'dummy_data': [-245.669907, -1772.948571]
}
df1 = pd.DataFrame(data1)
data2 = {
'time_3': pd.to_datetime([
'2023-10-01 06:21:13.238024',
'2023-10-01 06:47:19.796628',
'2023-10-01 07:37:06.438740',
'2023-10-01 08:16:16.995256',
'2023-10-01 08:33:53.081095'
]),
'dummy_data2': [-131.367901, -236.277444, 5.915493, -134.032433, -103.733212]
}
df2 = pd.DataFrame(data2)
# 确保时间列为 datetime 类型
df1['time_1'] = pd.to_datetime(df1['time_1'])
df1['time_2'] = pd.to_datetime(df1['time_2'])
df2['time_3'] = pd.to_datetime(df2['time_3'])
# 1. 重置索引(确保后续iloc操作的正确性)
df1_reset = df1.reset_index(drop=True)
df2_reset = df2.reset_index(drop=True)
# 2. 准备数据进行NumPy广播
# 将 df1 的时间列转换为列向量 (N, 1)
t1 = df1_reset["time_1"].to_numpy()[:, None]
t2 = df1_reset["time_2"].to_numpy()[:, None]
# 将 df2 的时间列保持为行向量 (1, M)
t3 = df2_reset["time_3"].to_numpy()
# 3. 执行广播比较
# 条件:time_3 介于 time_1 和 time_2 之间 (time_1 <= time_3 < time_2)
match_matrix = (t1 <= t3) & (t3 < t2)
# 4. 获取匹配的索引对
x_indices, y_indices = match_matrix.nonzero()
# 5. 组合结果DataFrame
result_df = pd.concat(
[
df1_reset.iloc[x_indices].reset_index(drop=True), # 根据x_indices从df1_reset中选择行
df2_reset.iloc[y_indices].reset_index(drop=True), # 根据y_indices从df2_reset中选择行
],
axis=1, # 水平拼接
)
print("高效合并结果:")
print(result_df)高效合并结果:
time_1 time_2 dummy_data time_3 dummy_data2
0 2023-10-01 04:02:00 2023-10-01 08:29:00 -245.669907 2023-10-01 06:21:13.238024 -131.367901
1 2023-10-01 04:02:00 2023-10-01 08:29:00 -245.669907 2023-10-01 06:47:19.796628 -236.277444
2 2023-10-01 04:02:00 2023-10-01 08:29:00 -245.669907 2023-10-01 07:37:06.438740 5.915493
3 2023-10-01 04:02:00 2023-10-01 08:29:00 -245.669907 2023-10-01 08:16:16.995256 -134.032433
4 2023-10-01 04:03:00 2023-10-01 08:49:00 -1772.948571 2023-10-01 06:21:13.238024 -131.367901
5 2023-10-01 04:03:00 2023-10-01 08:49:00 -1772.948571 2023-10-01 06:47:19.796628 -236.277444
6 2023-10-01 04:03:00 2023-10-01 08:49:00 -1772.948571 2023-10-01 07:37:06.438740 5.915493
7 2023-10-01 04:03:00 2023-10-01 08:49:00 -1772.948571 2023-10-01 08:16:16.995256 -134.032433
8 2023-10-01 04:03:00 2023-10-01 08:49:00 -1772.948571 2023-10-01 08:33:53.081095 -103.733212通过利用NumPy的广播机制,我们可以高效地解决Pandas中基于时间范围的条件合并问题。这种方法不仅显著提升了处理速度,还保持了代码的简洁性和可扩展性。然而,在使用时也需留意其潜在的内存消耗,并根据实际数据规模进行权衡和优化。掌握这种高级的Pandas和NumPy用法,将极大地提高你在时间序列数据处理中的效率。
以上就是Pandas基于时间范围合并DataFrame的高效策略的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号