c++中如何获取函数运行耗时_c++11 chrono高精度计时【汇总】

std::chrono::high_resolution_clock是C++11+测时首选,跨平台、高精度(通常纳秒级),需用同一时钟的time_point相减并显式转换duration;ScopedTimer通过RAII自动记录起止时间。

std::chrono::high_resolution_clock 获取函数耗时最可靠

在 C++11 及之后,std::chrono::high_resolution_clock 是获取函数运行耗时的首选——它不依赖系统 API,跨平台,精度通常达纳秒级(实际取决于底层实现,Linux/Windows 下多为微秒或更好)。不要用 clock()time(),它们分辨率低、语义模糊(clock() 是 CPU 时间,不是墙钟时间)。

关键点:

  • high_resolution_clock 是别名,可能等价于 steady_clocksystem_clock,但标准只要求它“尽可能高精度”,且推荐用于性能测量
  • 必须用同一时钟的 time_point 相减,不能混用不同 clock(如 steady_clock::now() - system_clock::now() 会编译失败)
  • 差值是 duration 类型,需显式转换为常用单位(如毫秒),否则直接输出是未格式化的计数

写一个通用的 ScopedTimer 类自动测时

手动写 start = high_resolution_clock::now()end = ... 容易漏、难复用。封装成 RAII 类最稳妥,构造时记录起点,析构时打印/保存耗时。

class ScopedTimer {
    using Clock = std::chrono::high_resolution_clock;
    Clock::time_point start_;
    std::string label_;
public:
    explicit ScopedTimer(const char* label = "timer") : label_(label) {
        start_ = Clock::now();
    }
    ~ScopedTimer() {
        auto end = Clock::now();
        auto us = std::chrono::duration_cast(end - start_).

count(); std::cout << label_ << ": " << us << " μs\n"; } };

使用示例:

void heavy_computation() {
    ScopedTimer timer("sort");
    std::vector v(100000, 0);
    std::iota(v.begin(), v.end(), 0);
    std::random_shuffle(v.begin(), v.end());
    std::sort(v.begin(), v.end());
} // 析构时自动输出耗时

注意:

  • 避免在循环内频繁构造/析构(有轻微开销),若需高频采样,改用单次 time_point 记录 + 手动计算
  • 若需纳秒级输出,把 microseconds 换成 nanoseconds,但多数平台实际达不到真纳秒精度

steady_clock vs high_resolution_clock:选哪个?

多数场景下,直接用 high_resolution_clock 即可。但如果代码逻辑要求“单调性”(即时间不能倒流,不受系统时钟调整影响),应选 steady_clock ——它专为此设计,且在所有主流 STL 实现中(libstdc++、libc++、MSVC STL)都基于单调时钟源(如 Linux 的 CLOCK_MONOTONIC)。

high_resolution_clock 在某些旧实现中可能退化为 system_clock(受 NTP 调整影响),虽罕见但存在风险。因此更严谨的做法是:

  • 测性能 → 优先用 steady_clock(保证单调 + 高精度已足够)
  • 需和系统时间对齐(如打日志带绝对时间戳)→ 用 system_clock
  • 仅当明确需要“当前平台理论最高精度”且接受潜在非单调性 → 用 high_resolution_clock

示例统一写法:

auto start = std::chrono::steady_clock::now();
// ... code ...
auto elapsed = std::chrono::steady_clock::now() - start;
auto ms = std::chrono::duration_cast(elapsed).count();

常见错误:类型转换丢失精度或溢出

直接对 duration 调用 .count() 得到的是内部计数值(如纳秒数),若未经 duration_cast 就转成 intfloat,可能截断或溢出。

典型错误写法:

// ❌ 错误:隐式转换丢失精度,且可能溢出
auto d = end - start;
long long ns = d.count(); // 假设是纳秒,但 d 可能是 nanoseconds、microseconds 等,count() 含义模糊
double ms = ns / 1000000.0; // 手动除易错

正确做法始终用 duration_cast

// ✅ 正确:语义清晰,编译器做安全转换
auto us = std::chrono::duration_cast(end - start);
std::cout << us.count() << " μs\n"; // 此时 count() 明确返回微秒数

其他易踩坑点:

  • auto 推导 time_point 没问题,但别对 durationauto 后直接 .count() —— 类型不直观,易误判量纲
  • 在 Release 模式下,空函数或纯计算可能被优化掉,测时结果为 0;确保被测代码有可观测副作用(如写全局变量、调用 volatile 函数)
  • 单次测量意义不大,建议跑多次取最小值或平均值(尤其对短耗时函数)

真正要注意的不是“怎么写第一行 now()”,而是时钟选择是否满足场景需求、duration 转换是否无损、以及是否意识到编译器优化对测量结果的干扰。这几个点没踩准,再漂亮的计时代码也得不到真实数据。