Python多线程通过threading模块实现,适用于I/O密集型任务,因GIL限制无法在CPU密集型任务中并行执行;此时应使用多进程。

Python中实现多线程编程,主要依赖于其标准库中的
threading
解决方案
Python的
threading
threading.Thread
target
start()
一个基本的例子是这样的:
立即学习“Python免费学习笔记(深入)”;
import threading
import time
def task(name, duration):
"""一个模拟耗时操作的函数"""
print(f"线程 {name}: 正在启动...")
time.sleep(duration) # 模拟I/O操作或计算
print(f"线程 {name}: 完成。")
# 创建并启动线程
thread1 = threading.Thread(target=task, args=("Worker 1", 3))
thread2 = threading.Thread(target=task, args=("Worker 2", 2))
thread1.start() # 启动线程1
thread2.start() # 启动线程2
# 等待所有线程完成
thread1.join()
thread2.join()
print("所有线程都已执行完毕。")在这个例子中,
task
Thread
start()
join()
join()
除了直接传入函数,更面向对象的方法是继承
threading.Thread
run()
import threading
import time
class MyThread(threading.Thread):
def __init__(self, name, duration):
super().__init__()
self.name = name
self.duration = duration
def run(self):
print(f"线程 {self.name}: 正在启动...")
time.sleep(self.duration)
print(f"线程 {self.name}: 完成。")
thread3 = MyThread("Custom Thread 1", 4)
thread4 = MyThread("Custom Thread 2", 1)
thread3.start()
thread4.start()
thread3.join()
thread4.join()
print("自定义线程也已执行完毕。")这种方式提供了更好的封装性,让线程的逻辑和数据可以更紧密地结合在一起。
Python多线程真的能提高程序性能吗?它与多进程有何不同?
这是一个我经常被问到的问题,也是很多初学者容易混淆的地方。简而言之,Python多线程能否提高性能,取决于你的任务类型。
对于I/O密集型任务(比如网络请求、文件读写、数据库查询),Python多线程确实能有效提高程序的响应速度和效率。这是因为当一个线程在等待I/O操作完成时(比如等待网络响应),Python的全局解释器锁(GIL)会被释放,允许其他线程运行。这样,CPU就可以在等待I/O的同时,处理其他线程的任务,从而提高整体的并发性。你可以想象成:打电话时,你不需要一直拿着听筒等着对方说话,可以把电话放在一边,做点别的事情,听到响声再拿起。
然而,对于CPU密集型任务(比如大量的数值计算、图像处理),Python多线程在标准的CPython解释器下,并不能实现真正的并行计算,也因此无法提高性能。原因就是那个臭名昭著的全局解释器锁(GIL)。GIL确保了在任何给定时刻,只有一个线程能够执行Python字节码。这意味着即使你有多个线程,它们也只能轮流获得GIL并执行代码,无法同时利用多核CPU的优势。在这种情况下,多线程反而可能因为上下文切换的开销,导致性能略有下降。
与多进程(multiprocessing
所以,在选择多线程还是多进程时,首先要分析你的程序瓶颈在哪里。如果瓶颈在等待外部资源(网络、磁盘),那么
threading
multiprocessing
如何避免多线程中的数据竞争问题?锁(Lock)的实际应用
在多线程编程中,当多个线程尝试同时访问和修改同一个共享资源(比如一个全局变量、一个列表或一个文件)时,就可能发生数据竞争(Race Condition)。这会导致数据不一致、结果错误,甚至程序崩溃。这就像多个人同时往一个银行账户里存钱取钱,如果没有排队或协调,账目就容易乱掉。
为了解决这个问题,我们需要引入线程同步机制。Python的
threading
Lock
acquire()
release()
来看一个经典的例子:多个线程对同一个计数器进行递增操作。
import threading
import time
counter = 0
# 创建一个锁对象
lock = threading.Lock()
def increment_counter():
global counter
for _ in range(100000):
# 获取锁
lock.acquire()
try:
counter += 1
finally:
# 确保锁被释放,即使发生异常
lock.release()
threads = []
for i in range(5):
thread = threading.Thread(target=increment_counter)
threads.append(thread)
thread.start()
for thread in threads:
thread.join()
print(f"最终计数器值: {counter}")
# 理论上应该是 5 * 100000 = 500000如果没有锁的保护,
counter
counter += 1
使用
lock.acquire()
lock.release()
with
# ... (前面的导入和counter定义不变)
def increment_counter_with_lock():
global counter
for _ in range(100000):
with lock: # 自动获取和释放锁
counter += 1
# ... (创建和启动线程的代码不变)这种
with lock:
除了
Lock
threading
RLock
RLock
Semaphore
Lock
Event
Condition
Event
对于大多数数据竞争问题,
Lock
守护线程(Daemon Thread)在Python多线程中扮演什么角色?
在Python的多线程世界里,线程可以分为两种:用户线程(或非守护线程)和守护线程(Daemon Thread)。它们的区别在于,当主程序退出时,它们是否会阻止程序终止。
如何设置守护线程?
在创建
Thread
start()
daemon
True
import threading
import time
def daemon_task():
print("守护线程: 正在启动,将运行5秒...")
time.sleep(5)
print("守护线程: 理论上会完成,但可能被提前终止。")
def normal_task():
print("普通线程: 正在启动,将运行2秒...")
time.sleep(2)
print("普通线程: 完成。")
daemon_t = threading.Thread(target=daemon_task)
daemon_t.daemon = True # 设置为守护线程
normal_t = threading.Thread(target=normal_task)
daemon_t.start()
normal_t.start()
print("主线程: 启动了子线程,现在等待普通线程完成。")
normal_t.join() # 主线程等待普通线程完成
print("主线程: 普通线程已完成,现在主线程将退出。")
# 此时,如果daemon_t还没完成,它会被强制终止。运行这段代码,你会发现
daemon_task
守护线程的适用场景:
守护线程通常用于那些不需要程序等待其完成的任务,例如:
使用守护线程的注意事项:
由于守护线程在主程序退出时会被突然终止,它们可能没有机会进行清理工作,比如关闭文件句柄、释放网络连接等。这可能导致资源泄露或数据损坏。因此,在使用守护线程时,要特别注意其任务的性质,确保即使被突然终止也不会造成严重后果。如果需要确保清理工作完成,那么它就不适合作为守护线程,或者需要额外的机制来优雅地关闭它。
以上就是python中如何实现多线程编程_Python threading模块多线程编程入门的详细内容,更多请关注php中文网其它相关文章!
python怎么学习?python怎么入门?python在哪学?python怎么学才快?不用担心,这里为大家提供了python速学教程(入门到精通),有需要的小伙伴保存下载就能学习啦!
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号