Python多线程适合IO密集型任务,因CPython的GIL限制其不适用于CPU密集型计算;需用join()等待线程完成、Lock保证共享数据安全、ThreadPoolExecutor简化线程池管理,并注意避免死锁与资源泄漏。

Python构建多线程任务,核心是用 threading 模块启动多个线程并发执行函数,但要注意:CPython有GIL(全局解释器锁),所以多线程**适合IO密集型任务**(如网络请求、文件读写),不适合CPU密集型计算(此时应选 multiprocessing)。
一、基础写法:创建并启动线程
最直接的方式是把目标函数传给 Thread 对象,调用 start() 启动:
- 每个线程独立运行,主线程不会自动等待子线程结束
- 需要用 join() 显式等待线程完成,否则可能主线程退出、子线程被强制终止
示例:
import threading
import time
def task(name):
print(f"线程 {name} 开始")
time.sleep(2)
print(f"线程 {name} 结束")
t1 = threading.Thread(target=task, args=("A",))
t2 = threading.Thread(target=task, args=("B",))
t1.start()
t2.start()
t1.join() # 等待t1完成
t2.join() # 等待t2完成
print("全部完成")二、共享数据与线程安全
多个线程访问同一变量(如全局计数器、列表)时,可能因执行时序交错导致结果错误——这就是**竞态条件**。
立即学习“Python免费学习笔记(深入)”;
- 用 threading.Lock 加锁是最常用解决方式
- lock.acquire() 和 lock.release() 要配对;推荐用 with 语句自动管理
示例(安全计数):
counter = 0
lock = threading.Lock()
def increment():
global counter
for _ in range(100000):
with lock:
counter += 1
t1 = threading.Thread(target=increment)
t2 = threading.Thread(target=increment)
t1.start(); t2.start()
t1.join(); t2.join()
print(counter) # 输出 200000(无锁时可能小于该值)三、用 ThreadPoolExecutor 管理线程池
比起手动创建/管理线程,concurrent.futures.ThreadPoolExecutor 更简洁、健壮,支持异步提交和结果获取:
- submit() 提交单个任务,返回 Future 对象
- map() 批量提交同函数、不同参数的任务,按输入顺序返回结果
- with 语句可自动关闭线程池,避免资源泄漏
示例(并发请求多个网页):
from concurrent.futures import ThreadPoolExecutor
import requests
urls = ["https://httpbin.org/delay/1"] * 5
def fetch(url):
return requests.get(url).status_code
with ThreadPoolExecutor(max_workers=3) as executor:
results = list(executor.map(fetch, urls))
print(results) # [200, 200, 200, 200, 200]四、常见陷阱提醒
-
不要在线程中修改未加锁的共享变量(尤其字典、列表 append/pop)
-
避免死锁:多个锁嵌套时注意加锁顺序一致;尽量用单个锁或 with 语句
-
主线程退出 = 整个程序退出,守护线程(daemon=True)会随主线程结束而被杀,非守护线程必须 join 完成
-
调试多线程难:加日志、用 time.sleep() 暴露竞态问题,再针对性加锁
基本上就这些。多线程不是“开越多越快”,合理控制线程数(通常略大于CPU核心数或根据IO等待时间调整),比盲目堆数量更有效。
以上就是Python如何构建多线程任务_并发处理基础知识【教程】的详细内容,更多请关注php中文网其它相关文章!