Python多线程通过threading模块实现,适用于I/O密集型任务,利用线程提升并发效率;尽管受GIL限制无法在CPU密集型任务中并行执行,但结合Lock/RLock可解决共享资源竞争问题,而ThreadPoolExecutor和守护线程则优化了线程生命周期与资源管理。

Python多线程编程主要通过内置的
threading
threading
要使用Python的
threading
Thread
传递一个可调用对象(函数)给Thread
import threading
import time
def task_function(name, delay):
"""一个简单的线程任务函数"""
print(f"线程 {name}: 启动")
time.sleep(delay)
print(f"线程 {name}: 完成")
# 创建线程实例
thread1 = threading.Thread(target=task_function, args=("Thread-1", 2))
thread2 = threading.Thread(target=task_function, args=("Thread-2", 3))
# 启动线程
thread1.start()
thread2.start()
# 等待所有线程完成
thread1.join()
thread2.join()
print("主线程: 所有子线程已完成。")target
args
target
立即学习“Python免费学习笔记(深入)”;
继承threading.Thread
run()
import threading
import time
class MyThread(threading.Thread):
def __init__(self, name, delay):
super().__init__()
self.name = name
self.delay = delay
def run(self):
"""线程执行的实际逻辑"""
print(f"线程 {self.name}: 启动")
time.sleep(self.delay)
print(f"线程 {self.name}: 完成")
# 创建线程实例
thread1 = MyThread("MyThread-1", 2)
thread2 = MyThread("MyThread-2", 3)
# 启动线程
thread1.start()
thread2.start()
# 等待所有线程完成
thread1.join()
thread2.join()
print("主线程: 所有自定义线程已完成。")无论哪种方式,
start()
run()
target
join()
关于Python多线程和多进程的选择,这确实是初学者常常困惑的地方。我个人经验是,这主要取决于你的任务类型和对“并行”的理解。Python的全局解释器锁(GIL)是绕不开的话题,它保证了在任何给定时刻,只有一个线程能执行Python字节码。这意味着,即使你启动了多个线程,它们也无法在多核CPU上真正地同时执行CPU密集型任务。
所以,如果你的程序主要是I/O密集型(比如网络请求、文件读写、数据库操作),这意味着程序大部分时间都在等待外部资源响应,CPU是空闲的。在这种情况下,
threading
然而,如果你的程序是CPU密集型(比如复杂的数学计算、图像处理、数据分析),那么
threading
multiprocessing
总结来说,我的建议是:
threading
multiprocessing
Lock
RLock
在多线程编程中,当多个线程尝试同时修改或访问同一个共享资源时,就可能出现所谓的“竞争条件”(Race Condition)。这会导致数据不一致或程序行为异常,是多线程编程中最常见的陷阱之一。我记得有一次,就是因为忘记加锁,导致一个计数器在并发环境下总是得到错误的结果,那真是个让人头疼的bug,排查了很久才发现是共享变量的问题。
为了避免这种情况,
threading
Lock
threading.Lock
Lock
acquire()
acquire()
release()
import threading
import time
shared_counter = 0
lock = threading.Lock() # 创建一个锁
def increment_counter():
global shared_counter
for _ in range(100000):
# 使用with语句管理锁,确保即使发生异常也能释放锁
with lock:
shared_counter += 1
threads = []
for i in range(5):
thread = threading.Thread(target=increment_counter)
threads.append(thread)
thread.start()
for thread in threads:
thread.join()
print(f"最终计数器值: {shared_counter}") # 期望值是 5 * 100000 = 500000如果没有
Lock
shared_counter
with lock:
acquire()
release()
threading.RLock
RLock
Lock
acquire()
acquire()
release()
RLock
import threading
r_lock = threading.RLock()
def func_a():
with r_lock:
print(f"{threading.current_thread().name} 进入 func_a")
func_b()
print(f"{threading.current_thread().name} 退出 func_a")
def func_b():
with r_lock:
print(f"{threading.current_thread().name} 进入 func_b")
# 模拟一些操作
print(f"{threading.current_thread().name} 退出 func_b")
thread = threading.Thread(target=func_a, name="MyReentrantThread")
thread.start()
thread.join()在这个例子中,
func_a
r_lock
func_b
func_b
r_lock
Lock
func_a
func_b
RLock
选择
Lock
RLock
RLock
Lock
在实际的多线程应用中,我们往往需要更精细地管理线程的生命周期和资源消耗。手动创建和销毁大量线程会带来不小的开销,而且如果线程数量失控,还可能耗尽系统资源。这时候,线程池和守护线程的概念就显得尤为重要。
守护线程 (Daemon Threads)
守护线程是一种特殊类型的线程,它的生命周期与主线程密切相关。当你将一个线程设置为守护线程(通过
thread.daemon = True
import threading
import time
def daemon_task():
print("守护线程: 启动,开始后台工作...")
time.sleep(5) # 模拟长时间运行
print("守护线程: 完成工作。")
def non_daemon_task():
print("非守护线程: 启动,执行短期任务...")
time.sleep(1)
print("非守护线程: 完成任务。")
daemon_thread = threading.Thread(target=daemon_task)
daemon_thread.daemon = True # 设置为守护线程
non_daemon_thread = threading.Thread(target=non_daemon_task)
daemon_thread.start()
non_daemon_thread.start()
non_daemon_thread.join() # 等待非守护线程完成
print("主线程: 非守护线程已完成,主线程即将退出。")
# 此时,如果daemon_thread还没完成,它也会被强制终止。守护线程非常适合那些在后台默默运行、提供辅助服务(如日志记录、缓存清理、心跳检测)的任务,它们不需要等待主程序退出后才结束。但要注意,由于它们可能被突然终止,所以不适合执行那些需要保证数据完整性或资源正确释放的任务。
线程池 (Thread Pool)
对于那些需要处理大量短期任务的场景,线程池简直是救星。它让代码更整洁,也更有效率,不用自己手动管理那么多线程的生老病死。线程池预先创建了一定数量的线程,并将它们放入一个池子中。当有新任务到来时,线程池会从池中取出一个空闲线程来执行任务;任务完成后,线程不会被销毁,而是返回池中等待下一个任务。这样就避免了频繁创建和销毁线程的开销,也限制了同时运行的线程数量,防止资源过度消耗。
Python标准库中的
concurrent.futures
ThreadPoolExecutor
from concurrent.futures import ThreadPoolExecutor, as_completed
import time
def process_data(item):
"""模拟一个耗时的数据处理任务"""
print(f"正在处理数据: {item}...")
time.sleep(2) # 模拟处理时间
result = f"处理完成: {item} -> 结果"
print(f"处理结果: {result}")
return result
data_items = [f"Item-{i}" for i in range(10)]
# 创建一个最大工作线程数为3的线程池
with ThreadPoolExecutor(max_workers=3) as executor:
# 提交任务到线程池,并获取Future对象
futures = [executor.submit(process_data, item) for item in data_items]
print("\n等待所有任务完成并获取结果:")
# 使用as_completed迭代已完成的Future
for future in as_completed(futures):
try:
result = future.result() # 获取任务的返回值
print(f"从Future获取结果: {result}")
except Exception as exc:
print(f"任务生成了一个异常: {exc}")
print("\n所有任务已提交并处理完毕。")ThreadPoolExecutor
submit()
Future
Future.result()
as_completed()
Future
以上就是python如何进行多线程编程_python threading模块多线程实现方法的详细内容,更多请关注php中文网其它相关文章!
python怎么学习?python怎么入门?python在哪学?python怎么学才快?不用担心,这里为大家提供了python速学教程(入门到精通),有需要的小伙伴保存下载就能学习啦!
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号