python如何计算程序的运行时间_python计算代码执行时间的方法

尼克
发布: 2025-09-13 12:19:01
原创
826人浏览过
使用time.time()、time.perf_counter()、time.process_time()和timeit模块可测量Python代码执行时间;其中time.time()简单但精度低,受系统时钟影响;perf_counter()提供高精度单调计时,适合短时间测量;process_time()仅统计CPU时间,排除I/O等待;timeit模块通过多次重复运行代码并取最优值,适用于微基准测试,能更准确评估小段代码性能。在性能优化中,除时间测量外,还需考虑内存使用、CPU剖析、I/O延迟、算法复杂度、GIL限制及代码可读性等因素,综合运用工具如cProfile、memory_profiler和多进程等策略,才能有效识别瓶颈并提升整体性能。

python如何计算程序的运行时间_python计算代码执行时间的方法

想知道Python代码到底跑了多久?这在日常开发和性能优化中是个再常见不过的需求了。简单来说,Python提供了几个核心工具来帮你搞定这事儿,最常用的是

time
登录后复制
模块,它能满足大部分日常计时需求;而如果追求极致的精确度,比如要比较不同算法的细微性能差异,
timeit
登录后复制
模块则是你的不二之选。

解决方案

在Python中测量代码执行时间,我们通常会用到

time
登录后复制
模块里的几个函数,以及专门用于性能基准测试的
timeit
登录后复制
模块。

1. 使用

time.time()
登录后复制
进行简单计时

这是最直观也最常用的方法,它返回自纪元(通常是1970年1月1日00:00:00 UTC)以来的秒数。

立即学习Python免费学习笔记(深入)”;

import time

start_time = time.time()
# 你的代码块
sum_val = 0
for i in range(10000000):
    sum_val += i
end_time = time.time()

print(f"代码执行时间 (time.time()): {end_time - start_time:.4f} 秒")
登录后复制

这种方法简单易用,适合测量整个脚本或较大代码块的运行时间。但它的精度受限于系统时钟,而且如果系统时间在代码运行期间被调整(比如通过NTP同步),结果可能会受到影响。

2. 使用

time.perf_counter()
登录后复制
进行高精度计时

time.perf_counter()
登录后复制
返回一个性能计数器的值,它是一个绝对时间,但通常不代表任何实际的日期时间,只用于测量短时间间隔。它的精度比
time.time()
登录后复制
更高,并且不受系统时钟调整的影响。

import time

start_perf = time.perf_counter()
# 你的代码块
_ = [x * x for x in range(10000000)]
end_perf = time.perf_counter()

print(f"代码执行时间 (time.perf_counter()): {end_perf - start_perf:.6f} 秒")
登录后复制

当我们需要对代码片段进行更精确的微基准测试时,

perf_counter
登录后复制
是更好的选择。

3. 使用

time.process_time()
登录后复制
测量CPU时间

time.process_time()
登录后复制
返回当前进程的系统和用户CPU时间之和。这意味着它只计算CPU花在执行代码上的时间,不包括I/O等待、睡眠或其他进程占用的时间。

import time

start_cpu = time.process_time()
# 你的代码块
# 模拟一些CPU密集型操作
def fibonacci(n):
    a, b = 0, 1
    for _ in range(n):
        a, b = b, a + b
    return a

fibonacci(300000)
end_cpu = time.process_time()

print(f"代码执行CPU时间 (time.process_time()): {end_cpu - start_cpu:.6f} 秒")
登录后复制

如果你想知道代码实际“消耗”了多少CPU资源,而不是总的“墙钟时间”,

process_time
登录后复制
会给你更准确的答案。

4. 使用

timeit
登录后复制
模块进行专业的性能基准测试

timeit
登录后复制
模块专门为测量小段代码的执行时间而设计,它会多次运行你的代码,然后给出平均时间,从而减少单次运行的随机性误差和测量本身的开销。这对于比较不同算法或实现方式的性能差异非常有用。

import timeit

# 比较两种列表生成方式的性能
setup_code = "import random"
stmt_list_comp = "[random.randint(0, 100) for _ in range(10000)]"
stmt_loop_append = """
my_list = []
for _ in range(10000):
    my_list.append(random.randint(0, 100))
"""

# 运行10000次,重复3次取最好成绩
time_comp = timeit.timeit(stmt=stmt_list_comp, setup=setup_code, number=10000, repeat=3)
time_loop = timeit.timeit(stmt=stmt_loop_append, setup=setup_code, number=10000, repeat=3)

print(f"列表推导式执行时间 (timeit): {min(time_comp)/10000:.6f} 秒/次")
print(f"循环append执行时间 (timeit): {min(time_loop)/10000:.6f} 秒/次")

# 也可以直接测量函数
def my_function():
    return [x * 2 for x in range(10000)]

# timeit.Timer 的用法
timer = timeit.Timer("my_function()", globals=globals()) # globals=globals() 使得my_function可见
result = timer.timeit(number=1000)
print(f"my_function 执行时间 (timeit.Timer): {result/1000:.6f} 秒/次")
登录后复制

timeit
登录后复制
在命令行中也非常好用,比如
python -m timeit "'-'.join(str(n) for n in range(100))"
登录后复制
。它会自动帮你处理多次运行和平均值计算,非常方便。

Python中测量代码执行时间,为什么简单的
time.time()
登录后复制
有时不够精确?

这个问题其实挺有意思的,很多初学者或者说平时不深究的开发者,可能都会觉得

time.time()
登录后复制
就够用了,毕竟它也返回秒数嘛。但实际上,它在某些场景下确实会“掉链子”,或者说不够“诚实”。

首先,

time.time()
登录后复制
依赖的是系统时钟,也就是我们电脑右下角显示的时间。这个时间是可能被调整的。比如,你的系统会定期通过网络时间协议(NTP)与时间服务器同步,或者你手动改了时间。如果你的代码恰好在两次时间同步之间运行,或者在手动调整时间时跨越了那个点,那么
time.time()
登录后复制
计算出来的时间差就可能出现偏差,甚至可能是负数(虽然这种情况比较极端)。它就像你拿着一块普通手表计时,如果手表本身走时不准或者你中途调整了它,结果自然就不准确了。

其次,

time.time()
登录后复制
的精度在不同操作系统和Python版本上可能有所不同。虽然现代系统通常能提供毫秒甚至微秒级的精度,但在一些老旧系统或者某些特定的虚拟化环境中,它的分辨率可能没那么高,导致在测量非常短的代码片段时,误差相对较大。举个例子,如果一个操作只耗时几十微秒,而
time.time()
登录后复制
的最小跳动单位是毫秒,那它就无法精确捕捉到这个细微的差别。

再者,

time.time()
登录后复制
测量的是“墙钟时间”(wall-clock time),也就是从开始到结束,实际过去了多少时间。这个时间包含了CPU执行代码的时间、I/O等待时间(比如读写文件、网络请求)、以及操作系统调度其他进程所花费的时间。如果你只是想知道你的代码纯粹消耗了多少CPU资源,
time.time()
登录后复制
就会把这些非CPU执行的时间也算进去,导致结果不能真实反映代码本身的计算效率。

所以,当我们需要进行严格的性能分析,特别是微基准测试(micro-benchmarking)时,

time.time()
登录后复制
的这些局限性就显得尤为突出。这时,
time.perf_counter()
登录后复制
timeit
登录后复制
模块的优势就体现出来了。
perf_counter
登录后复制
提供的是高分辨率的、单调递增的计数器,它不关心系统时钟的调整,只管从一个点到另一个点流逝了多少“滴答”;而
timeit
登录后复制
则通过多次运行和统计,进一步规避了单次测量的随机误差和外部干扰,力求在“实验室条件”下给出最纯粹的性能数据。

如何使用
timeit
登录后复制
模块对Python函数进行性能基准测试?

timeit
登录后复制
模块是Python标准库中一个非常强大的工具,专门用于对小段代码或函数进行精确的性能基准测试。它的核心思想是:多次重复运行目标代码,然后取平均值或最佳值,以消除单次运行的随机性、垃圾回收、操作系统调度等因素带来的干扰。

使用

timeit
登录后复制
主要有两种方式:通过
timeit.timeit()
登录后复制
函数,或者通过
timeit.Timer
登录后复制
类。

美间AI
美间AI

美间AI:让设计更简单

美间AI 45
查看详情 美间AI

1. 使用

timeit.timeit()
登录后复制
函数

这是最常用也最简洁的方式,特别适合快速测试一行或几行代码的性能。

import timeit

# 假设我们想测试一个列表推导式的性能
# stmt: 要执行的代码语句(字符串形式)
# setup: 运行stmt之前需要执行的设置代码(字符串形式),比如导入模块或定义函数
# number: stmt要执行的次数
# repeat: 整个测试重复的次数,timeit会返回一个列表,包含每次重复的总时间

# 示例1: 比较字符串拼接的效率
# setup代码用于导入time模块,确保stmt中的time.time()可用
setup_str = "import time"

# 两种字符串拼接方式
stmt_join = "''.join(str(n) for n in range(1000))"
stmt_plus = "s = ''; for n in range(1000): s += str(n)"

# 运行10000次,重复5次
results_join = timeit.timeit(stmt=stmt_join, setup=setup_str, number=10000, repeat=5)
results_plus = timeit.timeit(stmt=stmt_plus, setup=setup_str, number=10000, repeat=5)

print(f"'-'.join() 方式 (最佳): {min(results_join):.6f} 秒 (总计 {10000} 次)")
print(f"'+=' 方式 (最佳): {min(results_plus):.6f} 秒 (总计 {10000} 次)")

# 示例2: 测量一个自定义函数的性能
def my_complex_calculation(n):
    return sum(i*i for i in range(n))

# setup中定义函数,并确保其在timeit执行环境中可见
# globals=globals() 是一个技巧,它将当前全局命名空间传递给timeit,
# 这样my_complex_calculation就可以在stmt中被调用了。
setup_func = "from __main__ import my_complex_calculation" # 或者直接 globals=globals()
time_func = timeit.timeit(stmt="my_complex_calculation(10000)", setup=setup_func, number=1000, repeat=3)
print(f"my_complex_calculation(10000) 最佳执行时间: {min(time_func):.6f} 秒 (总计 {1000} 次)")
登录后复制

timeit.timeit()
登录后复制
会返回一个包含
repeat
登录后复制
次测试结果的列表。通常我们关注的是这个列表中的最小值(
min()
登录后复制
),因为它最能代表代码在“最佳”状态下的性能,排除了由于操作系统调度、垃圾回收或其他后台任务造成的偶然性延迟。

2. 使用

timeit.Timer
登录后复制

Timer
登录后复制
类提供了更灵活的控制,特别适合当你需要多次运行同一个测试,或者在测试前进行复杂的设置时。

import timeit

# 假设我们要测试一个排序函数的性能
data_size = 10000
# setup代码用于生成随机数据,确保每次测试的数据是独立的
setup_timer = f"""
import random
data = [random.randint(0, 10000) for _ in range({data_size})]
"""

# stmt是我们要测试的代码,这里我们使用list.sort()
stmt_timer = "data.sort()"

# 创建Timer对象
# Timer(stmt, setup, timer=default_timer, globals=None)
# default_timer 通常是 time.perf_counter(),提供高精度计时
timer_obj = timeit.Timer(stmt=stmt_timer, setup=setup_timer)

# 运行测试
# timeit(number=DEFAULT_NUMBER) 方法执行测试
# repeat(repeat=DEFAULT_REPEAT, number=DEFAULT_NUMBER) 方法返回多次重复的结果
results_timer = timer_obj.repeat(repeat=5, number=100) # 重复5次,每次运行100次stmt

print(f"list.sort() 排序 {data_size} 个元素 (最佳): {min(results_timer):.6f} 秒 (总计 {100} 次)")
登录后复制

timeit
登录后复制
模块的精髓在于它的“隔离性”和“重复性”。
setup
登录后复制
参数确保了每次测试都在一个相对干净、一致的环境下进行,避免了前一次运行对后一次的影响。而
number
登录后复制
repeat
登录后复制
参数则通过大量重复运行,让我们可以从统计学上获得更可靠的性能数据,过滤掉那些偶然的“噪音”。当你需要对比不同算法的性能优劣,或者找出代码中真正的性能瓶颈时,
timeit
登录后复制
无疑是你的得力助手。

在Python性能优化过程中,除了时间测量,还有哪些关键考量?

单纯测量代码运行时间只是性能优化的第一步,它告诉你“哪里慢了”,但并没有直接告诉你“为什么慢”以及“如何变快”。要真正做好性能优化,我们需要更全面的视角和更深入的分析。

1. 内存使用效率

时间是重要的,但内存同样关键。一个运行很快但吃掉所有内存的程序显然不是一个好程序。

  • 内存分析器:
    memory_profiler
    登录后复制
    objgraph
    登录后复制
    等工具可以帮助你追踪程序运行时的内存使用情况,找出内存泄漏或不必要的内存占用
  • 数据结构选择: Python内置的数据结构(列表、字典、集合、元组)各有优劣。例如,列表的append操作很快,但在头部插入或删除效率低;字典查找效率高,但有额外内存开销。选择合适的数据结构能显著影响内存和时间性能。
  • 生成器表达式: 当处理大量数据时,使用生成器(generator)而非一次性生成整个列表,可以大大减少内存占用,实现“惰性计算”。

2. CPU剖析(Profiling)

时间测量告诉你总耗时,但CPU剖析能深入到函数层面,告诉你哪个函数、哪行代码占用了最多的CPU时间。

  • cProfile
    登录后复制
    profile
    登录后复制
    模块:
    Python标准库提供了这两个强大的工具。它们可以生成详细的报告,显示每个函数的调用次数、总耗时、以及自身耗时(不包括其调用的子函数)。通过可视化工具(如
    snakeviz
    登录后复制
    ),可以更直观地看到调用图和性能瓶颈。
  • 关注热点 剖析报告会帮你找到“热点”函数,也就是那些被频繁调用或自身执行时间很长的函数,这往往是优化的重点。

3. I/O操作与网络延迟

很多时候,程序的瓶颈不在于CPU计算,而在于等待外部资源,比如:

  • 文件读写: 大文件的读写速度受限于硬盘性能。
  • 网络请求: API调用、数据库查询等都涉及网络延迟,这是程序自身难以控制的外部因素。
  • 数据库交互: 复杂的SQL查询、不合理的索引都会导致数据库响应缓慢。 对于这类问题,优化思路可能包括批量处理、缓存、异步I/O(如
    asyncio
    登录后复制
    )或并行处理。

4. 算法复杂度

这是性能优化的根本。一个O(N^2)的算法,无论你用多么快的语言或多强的硬件,在数据量N增大时,都无法与一个O(N log N)或O(N)的算法匹敌。

  • 大O表示法: 理解你所用算法的时间和空间复杂度。
  • 选择更优算法: 很多时候,性能瓶颈是由于选择了次优的算法。例如,从线性搜索改为二分搜索,或从冒泡排序改为快速排序。

5. Python的全局解释器锁(GIL)

Python的GIL是一个特殊的存在,它确保在任何给定时刻,只有一个线程在执行Python字节码。这意味着,即使在多核CPU上,纯Python的多线程程序也无法真正并行执行CPU密集型任务。

  • CPU密集型任务: 对于这类任务,多进程(
    multiprocessing
    登录后复制
    模块)是更好的选择,因为每个进程都有自己的Python解释器和GIL。
  • I/O密集型任务: GIL对I/O操作影响较小,因为在等待I/O时,GIL会被释放,其他线程可以运行。因此,多线程在I/O密集型任务中仍能发挥作用。
  • C扩展: 如果对性能有极致要求,可以将核心的CPU密集型部分用C/C++编写成Python扩展模块,它们可以绕过GIL。

6. 代码可读性与性能的权衡

最后但同样重要的一点是,不要为了微小的性能提升而牺牲代码的可读性、可维护性。过早优化(Premature Optimization)是编程中的一大陷阱。通常,我们应该先写出清晰、正确的代码,然后通过测量找出真正的瓶颈,再针对性地进行优化。有时候,一个简单的重构或更清晰的逻辑,反而能带来意想不到的性能提升。

总之,性能优化是一个系统工程,需要结合多种工具和方法,从不同维度审视代码,才能找到最有效、最可持续的解决方案。

以上就是python如何计算程序的运行时间_python计算代码执行时间的方法的详细内容,更多请关注php中文网其它相关文章!

python速学教程(入门到精通)
python速学教程(入门到精通)

python怎么学习?python怎么入门?python在哪学?python怎么学才快?不用担心,这里为大家提供了python速学教程(入门到精通),有需要的小伙伴保存下载就能学习啦!

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号