Go微服务健康检查需区分readiness与liveness:/live仅检测进程存活,/ready检查所有关键依赖;须封装可注册检查项、统一超时、并行执行、返回结构化JSON,并集成Prometheus可观测性。

Go 微服务的健康检查不是加个 /health 路由就完事——它必须能真实反映服务依赖(数据库、Redis、下游 HTTP 服务)是否可用,且不能拖慢主请求或被恶意刷爆。
用 net/http 实现可扩展的健康检查端点
别直接在 http.HandleFunc 里写一堆 if db.Ping() != nil。应该把检查逻辑封装成可注册的函数,方便按需启用/禁用、超时控制和并发隔离。
- 每个检查项实现
func() error接口,比如checkDB()、checkRedis() - 主 handler 使用
context.WithTimeout统一控制总耗时(建议 ≤ 2s) - 用
sync.WaitGroup并行执行非强依赖检查项,避免单点失败阻塞全部响应 - 返回结构体应包含
status("ok"或"fail")、checks(各子项详情)和可选的version字段,便于 Prometheus 抓取
func healthHandler(checks map[string]func() error) http.HandlerFunc {
return func(w http.ResponseWriter, r *http.Request) {
ctx, cancel := context.WithTimeout(r.Context(), 2*time.Second)
defer cancel()
type result struct {
Name string `json:"name"`
Err error `json:"error,omitempty"`
}
results := make(chan result, len(checks))
var wg sync.WaitGroup
for name, check := range checks {
wg.Add(1)
go func(n string, c func() error) {
defer wg.Done()
select {
case <-ctx.Done():
results <- result{Name: n, Err: ctx.Err()}
default:
err := c()
results <- result{Name: n, Err: err}
}
}(name, check)
}
go func() {
wg.Wait()
close(results)
}()
out := struct {
Status string `json:"status"`
Checks []result `json:"checks"`
Version string `json:"version,omitempty"`
}{
Status: "ok",
Checks: make([]result, 0, len(checks)),
}
for res := range results {
out.Checks = append(out.Checks, res)
if res.Err != nil {
out.Status = "fail"
}
}
w.Header().Set("Content-Type", "application/json")
json.NewEncoder(w).Encode(out)
}}
区分 readiness 和 liveness:Kubernetes 场景下不能混用
Kubernetes 的 readinessProbe 和 livenessProbe 触发动作完全不同:前者决定是否往 Pod 转发流量,后者失败会直接重启容器。若两者共用同一端点,可能造成“服务刚启动就被杀掉”的循环。
立即学习“go语言免费学习笔记(深入)”;
-
liveness只检查进程是否存活(如能否响应 HTTP、goroutine 是否卡死),不查外部依赖 -
readiness必须包含所有关键依赖(DB、配置中心、核心下游),任一失败即返回 503 - 推荐路径分离:
GET /live做轻量心跳,GET /ready做全量依赖检查 - 避免在
/live中调用runtime.NumGoroutine()等高开销操作,它本身可能成为瓶颈
避免健康检查引发雪崩:超时、熔断与限流必须前置
当依赖服务响应变慢,健康检查端点如果没做保护,会堆积 goroutine、耗尽连接池,最终拖垮整个服务。
- 每个依赖检查必须带独立超时,例如用
redis.Client.Ping(ctx)而非Ping() - 对下游 HTTP 依赖,使用带熔断的 client(如
sony/gobreaker),失败率超阈值后快速返回,不发起真实请求 - 用
golang.org/x/time/rate.Limiter限制单位时间内的检查调用频次(尤其对/ready),防止被监控系统高频轮询打挂 - 数据库检查不要执行
SELECT 1,改用db.Stats().OpenConnections+ 连接池健康状态判断,更轻量
集成 Prometheus:让健康状态可观测、可告警
单纯返回 JSON 不够,运维需要指标聚合和历史趋势。健康检查结果要转化为 Prometheus 可采集的 gauge 或 counter。
- 用
prometheus.NewGaugeVec定义service_health_status{endpoint="ready",dependency="postgres"} - 在每次检查完成后,根据
err == nil设置值为 1 或 0 - 暴露
/metrics端点,并确保健康检查逻辑不阻塞该端点(避免用同一个锁) - 告警规则建议:连续 3 次
service_health_status{endpoint="ready"} == 0触发 P1 告警
最常被忽略的是:健康检查本身不该有状态——它不应修改数据库、不触发业务 side effect、不依赖本地缓存。一旦它开始写日志到文件或调用 gRPC 上报自身状态,就不再是“只读探针”,而成了潜在故障源。










