
在处理大规模数据或执行耗时计算时,利用多核cpu进行并行计算是提高程序性能的常用手段。python提供了threading(多线程)和multiprocessing(多进程)两种主要的并发模型。然而,在实际应用中,尤其是在涉及numpy等科学计算库的场景下,这两种模型可能不会像预期那样带来显著的性能提升,甚至可能导致性能下降。
考虑一个典型的场景:对一个包含大量大型NumPy数组的列表进行密集计算。以下是一个使用tqdm.contrib.concurrent库进行并行处理的示例代码,该库集成了进度条功能,并提供了方便的多线程/多进程映射函数。
import time
import numpy as np
from tqdm.auto import tqdm
from tqdm.contrib.concurrent import process_map, thread_map
from multiprocessing import cpu_count
# 生成模拟数据集
def mydataset(size, length):
for ii in range(length):
yield np.random.rand(*size)
# 模拟重度计算函数
def calc(mat):
# 模拟一些耗时的NumPy计算
for ii in range(1000):
avg = np.mean(mat)
std = np.std(mat)
return avg, std
def main():
# 生成100个500x500的随机NumPy矩阵
ds = list(mydataset((500, 500), 100))
print(f"当前系统CPU核心数: {cpu_count()}")
# 1. 传统for循环
t0 = time.time()
res1 = []
for mat in tqdm(ds, desc="For Loop"):
res1.append(calc(mat))
print(f'for loop: {time.time() - t0:.2f}s')
# 2. 原生map函数
t0 = time.time()
res2 = list(map(calc, tqdm(ds, desc="Native Map")))
print(f'native map: {time.time() - t0:.2f}s')
# 3. process_map (多进程)
t0 = time.time()
# 默认使用所有可用CPU核心
res3 = process_map(calc, ds, desc="Process Map")
print(f'process map: {time.time() - t0:.2f}s')
# 4. thread_map (多线程)
t0 = time.time()
# 默认使用所有可用CPU核心
res4 = thread_map(calc, ds, desc="Thread Map")
print(f'thread map: {time.time() - t0:.2f}s')
if __name__ == '__main__':
main()在某些环境下,上述代码的输出可能如下所示:
当前系统CPU核心数: 28 For Loop: 100%|████████████████████████████████████████████| 100/100 [00:51<00:00, 1.93it/s] for loop: 51.88s Native Map: 100%|████████████████████████████████████████████| 100/100 [00:52<00:00, 1.91it/s] native map: 52.49s Process Map: 100%|████████████████████████████████████████████| 100/100 [01:10<00:00, 1.41it/s] process map: 71.06s Thread Map: 100%|████████████████████████████████████████████| 100/100 [00:41<00:00, 2.39it/s] thread map: 42.04s
从结果可以看出,process_map(多进程)反而比传统的for循环或map函数更慢,而thread_map(多线程)虽然有所提升,但提升幅度远低于预期(例如,在28核CPU上)。这表明:
为了解决多进程中数据拷贝的性能瓶颈,我们可以使用multiprocessing.Manager来创建一个可以在不同进程间共享的数据结构。Manager对象会运行一个单独的进程,该进程负责管理共享对象,并允许其他进程通过代理对象访问这些共享数据。这样,大型数据只需拷贝一次到Manager进程,后续的子进程只需传递对这些数据的引用(或索引),避免了重复的序列化和传输。
立即学习“Python免费学习笔记(深入)”;
以下是使用multiprocessing.Manager改进后的代码示例:
import time
import numpy as np
from multiprocessing import Pool, Manager, cpu_count
# 生成模拟数据集(与之前相同)
def mydataset(size, length):
for ii in range(length):
yield np.random.rand(*size)
# 修改后的计算函数:现在接收索引和共享列表
def calc_shared(idx, mat_list):
# 模拟一些耗时的NumPy计算
# 通过索引访问共享列表中的矩阵
mat = mat_list[idx]
for ii in range(1000):
avg = np.mean(mat)
std = np.std(mat)
return avg, std
def main_optimized():
ds = list(mydataset((500, 500), 100))
print(f"当前系统CPU核心数: {cpu_count()}")
# 创建一个进程池,通常设置为CPU核心数
# 为了演示效果,这里使用4个核心进行测试
num_processes = 4 # 可以根据实际CPU核心数调整
mypool = Pool(num_processes)
# 使用Manager创建共享列表
manager = Manager()
# 将原始数据放入Manager管理的列表中,数据仅拷贝一次
mylist = manager.list(ds)
t0 = time.time()
# 使用starmap传递多个参数:任务的索引和共享列表
# zip(range(len(ds)), mylist) 会生成 (0, mylist[0]), (1, mylist[1]), ... 的迭代器
res_optimized = mypool.starmap(calc_shared, zip(range(len(ds)), [mylist]*len(ds)))
print(f"map with Manager (using {num_processes} cores): {time.time() - t0:.2f}s")
mypool.close()
mypool.join()
manager.shutdown() # 关闭Manager进程
if __name__ == "__main__":
main_optimized()关键改进点:
优化后的输出示例:
当前系统CPU核心数: 28 map with Manager (using 4 cores): 1.94s
可以看到,通过引入multiprocessing.Manager,计算时间从数十秒骤降至不到2秒,实现了数十倍的性能提升。这充分证明了避免数据频繁拷贝对于NumPy密集型多进程计算的重要性。
在Python中对NumPy密集型计算进行多进程加速时,核心挑战在于如何高效地管理和共享数据,以避免因频繁数据拷贝和序列化带来的性能瓶颈。通过使用multiprocessing.Manager创建共享数据结构,我们可以确保大型NumPy数组只被复制一次,从而显著降低数据传输开销,实现真正的并行计算加速。理解不同并行机制的优缺点,并根据任务特性选择合适的数据共享策略,是优化Python并行程序性能的关键。
以上就是优化Python中NumPy密集计算的多进程加速策略:避免数据拷贝瓶颈的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号