Thanos源码专题【左扬精讲】——Thanos Rule 组件(release-0.26)源码阅读和分析(详解 cmd/rule.go )
Thanos Rule 组件(release-0.26)源码阅读和分析(详解 cmd/rule.go )
https://github.com/thanos-io/thanos/blob/v0.26.0/cmd/thanos/rule.go
// Copyright (c) The Thanos Authors.
// Licensed under the Apache License 2.0.
package main
import (
"context"
"math/rand"
"net/url"
"os"
"path/filepath"
"sort"
"strconv"
"strings"
"time"
extflag "github.com/efficientgo/tools/extkingpin"
"github.com/go-kit/log"
"github.com/go-kit/log/level"
"github.com/oklog/run"
"github.com/opentracing/opentracing-go"
"github.com/pkg/errors"
"github.com/prometheus/client_golang/prometheus"
"github.com/prometheus/client_golang/prometheus/promauto"
"github.com/prometheus/common/model"
"github.com/prometheus/prometheus/model/labels"
"github.com/prometheus/prometheus/promql"
"github.com/prometheus/prometheus/rules"
"github.com/prometheus/prometheus/tsdb"
"github.com/prometheus/prometheus/tsdb/agent"
"github.com/thanos-io/thanos/pkg/component"
"github.com/thanos-io/thanos/pkg/errutil"
"github.com/thanos-io/thanos/pkg/extkingpin"
"github.com/thanos-io/thanos/pkg/httpconfig"
"github.com/thanos-io/thanos/pkg/logging"
"github.com/thanos-io/thanos/pkg/promclient"
thanosrules "github.com/thanos-io/thanos/pkg/rules"
"github.com/thanos-io/thanos/pkg/runutil"
"github.com/thanos-io/thanos/pkg/store/storepb"
"github.com/thanos-io/thanos/pkg/tracing"
)
type ruleConfig struct {
http httpConfig // http服务配置
grpc grpcConfig // grpc服务配置
web webConfig // web服务配置
shipper shipperConfig // shipper服务配置
query queryConfig // query服务配置
queryConfigYAML []byte // query服务配置文件
alertmgr alertMgrConfig // alertmgr服务配置
alertmgrsConfigYAML []byte // alertmgr服务配置文件
alertQueryURL *url.URL // alertmgr服务查询URL
alertRelabelConfigYAML []byte // alertmgr服务重写标签配置文件
rwConfig *extflag.PathOrContent // rw服务配置
resendDelay time.Duration // 重新发送延迟
evalInterval time.Duration // 评估间隔
ruleFiles []string // 规则文件
objStoreConfig *extflag.PathOrContent // 对象存储配置
dataDir string // 数据目录
lset labels.Labels // 标签
}
// registerFlag 为 ruleConfig 类型的方法,用于注册不同组件的标志。
//
// 参数:
// cmd: extkingpin.FlagClause 类型,用于注册标志的命令接口。
//
// 说明:
// 该方法分别调用 http、gRPC、Web、Shipper、Query 和 AlertManager 的 registerFlag 方法,
// 注册各自组件的标志。
func (rc *ruleConfig) registerFlag(cmd extkingpin.FlagClause) {
// 注册HTTP相关标志
rc.http.registerFlag(cmd)
// 注册gRPC相关标志
rc.grpc.registerFlag(cmd)
// 注册Web相关标志
rc.web.registerFlag(cmd)
// 注册Shipper相关标志
rc.shipper.registerFlag(cmd)
// 注册Query相关标志
rc.query.registerFlag(cmd)
// 注册AlertManager相关标志
rc.alertmgr.registerFlag(cmd)
}
// registerRule registers a rule command.
// registerRule 函数用于在应用程序中注册规则评估命令。
//
// 参数:
//
// app: 一个指向extkingpin.App类型的指针,表示要注册命令的应用程序。
//
// 返回值:
//
// 无返回值。
func registerRule(app *extkingpin.App) {
// 组件名称,名称为 "rule"
comp := component.Rule
// 设置命令的简短描述和长描述,并设置命令的默认值。评估器根据给出的查询节点评估 Prometheus 规则,并公开存储 API,并将旧块存储在存储桶中。
cmd := app.Command(comp.String(), "Ruler evaluating Prometheus rules against given Query nodes, exposing Store API and storing old blocks in bucket.")
// 初始化配置
conf := &ruleConfig{} // 初始化配置结构体
conf.registerFlag(cmd) // 注册标志
// 设置标签, 标签用于标识规则,它们用于唯一地标识Ruler以及它所管理的数据块,从而确保在监控系统中能够清晰地追踪和区分不同来源的数据。
labelStrs := cmd.Flag("label", "Labels to be applied to all generated metrics (repeated). Similar to external labels for Prometheus, used to identify ruler and its blocks as unique source.").
PlaceHolder("<name>=\"<value>\"").Strings()
// 设置TSDB块持续时间,默认为2小时
tsdbBlockDuration := extkingpin.ModelDuration(cmd.Flag("tsdb.block-duration", "Block duration for TSDB block.").
Default("2h"))
// 设置TSDB块保留时间,默认为48小时
tsdbRetention := extkingpin.ModelDuration(cmd.Flag("tsdb.retention", "Block retention time on local disk.").
Default("48h"))
// 设置是否不创建TSDB数据目录的锁文件,默认为false
noLockFile := cmd.Flag("tsdb.no-lockfile", "Do not create lockfile in TSDB data directory. In any case, the lockfiles will be deleted on next startup.").Default("false").Bool()
// 设置是否压缩TSDB WAL,默认为true
walCompression := cmd.Flag("tsdb.wal-compression", "Compress the tsdb WAL.").Default("true").Bool()
// 设置数据目录,默认为"data/"
cmd.Flag("data-dir", "data directory").Default("data/").StringVar(&conf.dataDir)
// 设置规则文件,默认为"rules/"
cmd.Flag("rule-file", "Rule files that should be used by rule manager. Can be in glob format (repeated).").
Default("rules/").StringsVar(&conf.ruleFiles)
// 设置重新发送告警到Alertmanager的最小时间间隔,默认为1分钟
cmd.Flag("resend-delay", "Minimum amount of time to wait before resending an alert to Alertmanager.").
Default("1m").DurationVar(&conf.resendDelay)
// 设置默认评估间隔,默认为30秒
cmd.Flag("eval-interval", "The default evaluation interval to use.").
Default("30s").DurationVar(&conf.evalInterval)
// --remote-write.config-file 标志用于指定远程写入配置文件的路径。默认情况下,该标志的值为 "remote-write.yaml"。
// 注册远程写入配置,默认文件路径为 "remote-write.yaml"。
// YAML 文件用于配置远程写入的目标服务器,实现数据的实时发送和集成。
// 参考 Prometheus 官方文档了解更多远程写入详情:
// https://prometheus.io/docs/prometheus/latest/configuration/configuration/#remote_write
//
// 指定远程写入配置后,Ruler 将启用无状态模式,不存储数据在本地 TSDB。
// 所有数据将直接发送到配置的远程服务器。
//
// 如提供空配置或文件路径为空,则此标志被忽略,Ruler 使用自身 TSDB 存储数据。
// 支持环境变量替换,可动态指定配置文件中的参数值。
conf.rwConfig = extflag.RegisterPathOrContent(cmd, "remote-write.config", "YAML config for the remote-write configurations, that specify servers where samples should be sent to (see https://prometheus.io/docs/prometheus/latest/configuration/configuration/#remote_write). This automatically enables stateless mode for ruler and no series will be stored in the ruler's TSDB. If an empty config (or file) is provided, the flag is ignored and ruler is run with its own TSDB.", extflag.WithEnvSubstitution())
// 设置请求日志记录决策。
// 弃用警告 - 此标志即将被弃用,并将被 `request.logging-config` 替代。
// 请求日志记录用于记录请求的开始和结束。
// 默认情况下,此标志被禁用。
// 可选值包括:
// - LogFinishCall: 仅记录请求的结束调用。
// - LogStartAndFinishCall: 记录请求的开始和结束调用。
// - NoLogCall: 禁用请求日志记录。
reqLogDecision := cmd.Flag("log.request.decision", "Deprecation Warning - This flag would be soon deprecated, and replaced with `request.logging-config`. Request Logging for logging the start and end of requests. By default this flag is disabled. LogFinishCall: Logs the finish call of the requests. LogStartAndFinishCall: Logs the start and finish call of the requests. NoLogCall: Disable request logging.").Default("").Enum("NoLogCall", "LogFinishCall", "LogStartAndFinishCall", "")
// 注册对象存储配置
conf.objStoreConfig = extkingpin.RegisterCommonObjStoreFlags(cmd, "", false)
// 注册请求日志记录配置
reqLogConfig := extkingpin.RegisterRequestLoggingFlags(cmd)
var err error
// 设置命令的Setup函数,用于在命令执行前进行配置和初始化操作。
cmd.Setup(func(g *run.Group, logger log.Logger, reg *prometheus.Registry, tracer opentracing.Tracer, reload <-chan struct{}, _ bool) error {
// 解析标签
conf.lset, err = parseFlagLabels(*labelStrs)
if err != nil {
return errors.Wrap(err, "parse labels")
}
// 解析告警查询URL
conf.alertQueryURL, err = url.Parse(*conf.alertmgr.alertQueryURL)
if err != nil {
return errors.Wrap(err, "parse alert query url")
}
// 设置TSDB选项
tsdbOpts := &tsdb.Options{
MinBlockDuration: int64(time.Duration(*tsdbBlockDuration) / time.Millisecond), // 设置最小块持续时间,默认为2小时
MaxBlockDuration: int64(time.Duration(*tsdbBlockDuration) / time.Millisecond), // 设置最大块持续时间,默认为2小时
RetentionDuration: int64(time.Duration(*tsdbRetention) / time.Millisecond), // 设置数据保留时间,默认为30天
NoLockfile: *noLockFile, // 是否禁用锁文件
WALCompression: *walCompression, // 是否启用WAL压缩
}
// 设置代理选项
agentOpts := &agent.Options{
WALCompression: *walCompression,
NoLockfile: *noLockFile,
}
// 解析和检查查询配置
lookupQueries := map[string]struct{}{}
for _, q := range conf.query.addrs {
// 解析查询URL
if _, ok := lookupQueries[q]; ok {
// 检查是否有重复的查询URL,如果有则返回错误
return errors.Errorf("Address %s is duplicated for --query flag.", q)
}
// 将查询URL添加到lookupQueries中
lookupQueries[q] = struct{}{}
}
// 解析查询配置文件内容
conf.queryConfigYAML, err = conf.query.configPath.Content()
if err != nil {
return err
}
// 如果没有提供查询文件列表和URL,并且没有配置文件内容,则返回错误
if len(conf.query.sdFiles) == 0 && len(conf.query.addrs) == 0 && len(conf.queryConfigYAML) == 0 {
// 如果查询配置文件内容为空,但没有提供查询URL和文件列表,则返回错误
return errors.New("no --query parameter was given")
}
// 如果同时提供了查询文件列表和URL,则返回错误
if (len(conf.query.sdFiles) != 0 || len(conf.query.addrs) != 0) && len(conf.queryConfigYAML) != 0 {
// --query/--query.sd-files 和 --query.config* 参数不能同时定义,两者只能选择其一
return errors.New("--query/--query.sd-files and --query.config* parameters cannot be defined at the same time")
}
// 解析告警管理器配置文件内容
conf.alertmgrsConfigYAML, err = conf.alertmgr.configPath.Content()
if err != nil {
return err
}
// 如果没有提供告警管理器URL和配置文件内容,则返回错误
if len(conf.alertmgrsConfigYAML) != 0 && len(conf.alertmgr.alertmgrURLs) != 0 {
// --alertmanagers.url 和 --alertmanagers.config* 参数不能同时定义,两者只能选择其一
return errors.New("--alertmanagers.url and --alertmanagers.config* parameters cannot be defined at the same time")
}
// 解析告警重标签配置文件内容
conf.alertRelabelConfigYAML, err = conf.alertmgr.alertRelabelConfigPath.Content()
if err != nil {
return err
}
// 解析HTTP请求日志记录选项
httpLogOpts, err := logging.ParseHTTPOptions(*reqLogDecision, reqLogConfig)
if err != nil {
return errors.Wrap(err, "error while parsing config for request logging")
}
// 解析gRPC请求日志记录选项
tagOpts, grpcLogOpts, err := logging.ParsegRPCOptions(*reqLogDecision, reqLogConfig)
if err != nil {
return errors.Wrap(err, "error while parsing config for request logging")
}
// 运行规则
return runRule(g,
logger, // 日志记录器
reg, // 注册表
tracer, // 调试器
comp, // 组件
*conf, // 配置
reload, // 重载
getFlagsMap(cmd.Flags()), // 获取命令行参数
httpLogOpts, // HTTP请求日志记录选项
grpcLogOpts, // gRPC请求日志记录选项
tagOpts, // 标签选项
tsdbOpts, // TSDB选项
agentOpts, // Agent选项
)
})
}
// RuleMetrics defines Thanos Ruler metrics.
type RuleMetrics struct {
configSuccess prometheus.Gauge // 配置成功的配置数
configSuccessTime prometheus.Gauge // 配置成功的配置时间
duplicatedQuery prometheus.Counter // 重复查询计数器
rulesLoaded *prometheus.GaugeVec // 加载的规则计数器
ruleEvalWarnings *prometheus.CounterVec // 规则评估警告计数器
}
// newRuleMetrics 创建一个新的 RuleMetrics 实例,并将其注册到 Prometheus 注册器中。
// newRuleMetrics的函数,用于初始化一个名为RuleMetrics的结构体实例,并为其填充Prometheus指标。这些指标用于监控Thanos规则组件的状态和性能。
//
// 参数:
//
// reg: Prometheus 注册器实例,用于注册 RuleMetrics 中定义的指标。
//
// 返回值:
//
// 返回一个新的 RuleMetrics 实例指针。
func newRuleMetrics(reg *prometheus.Registry) *RuleMetrics {
m := new(RuleMetrics)
// 创建Prometheus自动注册器
factory := promauto.With(reg)
// 创建规则配置加载成功状态的指标
// Name: "thanos_rule_config_last_reload_successful" (Thanos规则配置上次重新加载是否成功)
m.configSuccess = factory.NewGauge(prometheus.GaugeOpts{
Name: "thanos_rule_config_last_reload_successful",
Help: "Whether the last configuration reload attempt was successful.",
})
// 创建规则配置加载成功时间戳的指标
// Name: "thanos_rule_config_last_reload_success_timestamp_seconds" (Thanos规则配置上次成功重新加载的时间戳)
m.configSuccessTime = factory.NewGauge(prometheus.GaugeOpts{
Name: "thanos_rule_config_last_reload_success_timestamp_seconds",
Help: "Timestamp of the last successful configuration reload.",
})
// 创建规则中检测到重复查询地址次数的指标
// Name: "thanos_rule_duplicated_query_addresses_total" (Thanos规则中检测到的重复查询地址的总次数)
m.duplicatedQuery = factory.NewCounter(prometheus.CounterOpts{
Name: "thanos_rule_duplicated_query_addresses_total",
Help: "The number of times a duplicated query addresses is detected from the different configs in rule.",
})
// 创建加载规则数量的指标,按文件和组进行分区
// Name: "thanos_rule_loaded_rules" (Thanos加载的规则数量,按文件和组分区)
m.rulesLoaded = factory.NewGaugeVec(
prometheus.GaugeOpts{
Name: "thanos_rule_loaded_rules",
Help: "Loaded rules partitioned by file and group.",
},
[]string{"strategy", "file", "group"},
)
// 创建规则评估带有警告次数的指标
// Name: "thanos_rule_evaluation_with_warnings_total" (Thanos规则评估带有警告的总次数)
m.ruleEvalWarnings = factory.NewCounterVec(
prometheus.CounterOpts{
Name: "thanos_rule_evaluation_with_warnings_total",
Help: "The total number of rule evaluation that were successful but had warnings which can indicate partial error.",
}, []string{"strategy"},
)
// 为不同的部分响应策略添加标签值
m.ruleEvalWarnings.WithLabelValues(strings.ToLower(storepb.PartialResponseStrategy_ABORT.String()))
m.ruleEvalWarnings.WithLabelValues(strings.ToLower(storepb.PartialResponseStrategy_WARN.String()))
return m
}
// removeLockfileIfAny 删除锁文件,如果存在的话。
//
// 参数:
//
// logger: log.Logger - 用于记录日志的Logger实例
// dataDir: string - 存储数据的目录路径
//
// 返回值:
//
// error - 如果删除锁文件失败,则返回错误;否则返回nil
func removeLockfileIfAny(logger log.Logger, dataDir string) error {
// 获取dataDir的绝对路径
absdir, err := filepath.Abs(dataDir)
if err != nil {
return err
}
// 尝试删除锁文件
// 如果删除失败,则判断错误类型
if err := os.Remove(filepath.Join(absdir, "lock")); err != nil {
// 如果错误类型是文件不存在,则返回nil
if os.IsNotExist(err) {
return nil
}
// 否则返回错误
return err
}
// 记录日志,表示找到了一个遗留的锁文件并已经删除
level.Info(logger).Log("msg", "a leftover lockfile found and removed")
return nil
}
func parseFlagLabels(s []string) (labels.Labels, error) {
var lset labels.Labels
// 遍历输入的字符串切片
for _, l := range s {
// 将字符串按照"="分割为两部分
// s:要分割的字符串。
// n:分割后的最大部分数量。这里设置为2,意味着我们期望每个标签由"="分隔为两部分(键和值)。
// parts:存储分割结果的切片。如果输入字符串包含"=", 则parts将包含两个元素;否则,它将只包含一个元素。
parts := strings.SplitN(l, "=", 2)
// 如果分割后的部分不是两部分,则返回错误
if len(parts) != 2 {
return nil, errors.Errorf("unrecognized label %q", l)
}
// 验证标签名称的有效性
if !model.LabelName.IsValid(model.LabelName(parts[0])) {
return nil, errors.Errorf("unsupported format for label %s", l)
}
// 对分割后的第二部分进行去引号操作
// strconv.Unquote用于去除字符串两端的引号,例如将`"value"`转换为`value`。如果parts[1]不是一个有效的引号字符串,则strconv.Unquote将返回错误。
val, err := strconv.Unquote(parts[1])
if err != nil {
return nil, errors.Wrap(err, "unquote label value")
}
// 将标签添加到标签集中
lset = append(lset, labels.Label{Name: parts[0], Value: val})
}
// 对标签集进行排序
sort.Sort(lset)
// 返回排序后的标签集和nil错误
return lset, nil
}
// runRule runs a rule evaluation component that continuously evaluates alerting and recording
// rules. It sends alert notifications and writes TSDB data for results like a regular Prometheus server.
// 为runRule的函数,该函数用于运行规则,包括创建规则指标、加载查询配置、创建查询提供者、创建HTTP客户端、读取读写配置YAML、创建远程存储或打开TSDB、构建Alertmanager客户端等步骤。
func runRule(
g *run.Group, // g: run.Group类型,用于管理goroutine的生命周期
logger log.Logger, // logger: log.Logger类型,用于记录日志
reg *prometheus.Registry, // reg: prometheus.Registry类型,用于注册指标
tracer opentracing.Tracer, // tracer: opentracing.Tracer类型,用于跟踪
comp component.Component, // comp: component.Component类型,用于组件
conf ruleConfig, // conf: ruleConfig类型,用于规则配置
reloadSignal <-chan struct{}, // reloadSignal: <-chan struct{}类型,用于重新加载信号
flagsMap map[string]string, // flagsMap: map[string]string类型,用于命令行参数
httpLogOpts []logging.Option, // httpLogOpts: []logging.Option类型,用于HTTP日志选项
grpcLogOpts []grpc_logging.Option, // grpcLogOpts: []grpc_logging.Option类型,用于gRPC日志选项
tagOpts []tags.Option, // tagOpts: []tags.Option类型,用于标签选项
tsdbOpts *tsdb.Options, // tsdbOpts: *tsdb.Options类型,用于TSDB选项
agentOpts *agent.Options, // agentOpts: *agent.Options类型,用于代理选项
) error {
// 创建规则指标
metrics := newRuleMetrics(reg)
var queryCfg []httpconfig.Config
var err error
// 如果配置了查询配置YAML,则加载配置
if len(conf.queryConfigYAML) > 0 {
queryCfg, err = httpconfig.LoadConfigs(conf.queryConfigYAML)
if err != nil {
return err
}
} else {
// 否则,从旧查询标志构建查询配置
queryCfg, err = httpconfig.BuildConfig(conf.query.addrs)
if err != nil {
return errors.Wrap(err, "query configuration")
}
// 从旧查询标志构建查询配置
var fileSDConfigs []httpconfig.FileSDConfig
if len(conf.query.sdFiles) > 0 { // 如果配置了服务发现文件,则添加到查询配置中
fileSDConfigs = append(fileSDConfigs, httpconfig.FileSDConfig{
Files: conf.query.sdFiles, // 服务发现文件列表
RefreshInterval: model.Duration(conf.query.sdInterval), // 服务发现刷新间隔
})
queryCfg = append(queryCfg,
httpconfig.Config{
// 配置查询提供者
EndpointsConfig: httpconfig.EndpointsConfig{
Scheme: "http", // 查询协议
FileSDConfigs: fileSDConfigs, // 服务发现配置列表
},
},
)
}
}
// 创建查询提供者
queryProvider := dns.NewProvider(
logger, // 日志记录器
extprom.WrapRegistererWithPrefix("thanos_rule_query_apis_", reg), // 注册器
dns.ResolverType(conf.query.dnsSDResolver), // DNS解析类型
)
// 创建HTTP客户端
var queryClients []*httpconfig.Client
// 为每个查询配置创建HTTP客户端
queryClientMetrics := extpromhttp.NewClientMetrics(extprom.WrapRegistererWith(prometheus.Labels{"client": "query"}, reg))
// 为每个查询配置创建HTTP客户端
for _, cfg := range queryCfg {
cfg.HTTPClientConfig.ClientMetrics = queryClientMetrics
c, err := httpconfig.NewHTTPClient(cfg.HTTPClientConfig, "query")
if err != nil {
return err
}
c.Transport = tracing.HTTPTripperware(logger, c.Transport)
queryClient, err := httpconfig.NewClient(logger, cfg.EndpointsConfig, c, queryProvider.Clone())
if err != nil {
return err
}
queryClients = append(queryClients, queryClient)
// 发现和解析查询地址
addDiscoveryGroups(g, queryClient, conf.query.dnsSDInterval)
}
var (
appendable storage.Appendable // appendable: storage.Appendable类型,用于追加数据
queryable storage.Queryable // queryable: storage.Queryable类型,用于查询数据
tsdbDB *tsdb.DB // tsdbDB: tsdb.DB类型,用于存储数据
agentDB *agent.DB // agentDB: agent.DB类型,用于存储数据
)
// 读取读写配置YAML
rwCfgYAML, err := conf.rwConfig.Content()
if err != nil {
return err
}
// 如果配置了读写配置,则创建远程存储
if len(rwCfgYAML) > 0 {
var rwCfg struct {
RemoteWriteConfigs []*config.RemoteWriteConfig `yaml:"remote_write,omitempty"`
}
if err := yaml.Unmarshal(rwCfgYAML, &rwCfg); err != nil {
// 如果解析失败,则返回错误
return errors.Wrapf(err, "failed to parse remote write config %v", string(rwCfgYAML))
}
// flushDeadline设置为1m,但仅用于元数据监视器,因此在此处未使用。
remoteStore := remote.NewStorage(logger, reg, func() (int64, error) {
return 0, nil
}, conf.dataDir, 1*time.Minute, nil)
if err := remoteStore.ApplyConfig(&config.Config{
GlobalConfig: config.GlobalConfig{
ExternalLabels: labelsTSDBToProm(conf.lset),
},
RemoteWriteConfigs: rwCfg.RemoteWriteConfigs,
}); err != nil {
return errors.Wrap(err, "applying config to remote storage")
}
agentDB, err = agent.Open(logger, reg, remoteStore, conf.dataDir, agentOpts)
if err != nil {
return errors.Wrap(err, "start remote write agent db")
}
fanoutStore := storage.NewFanout(logger, agentDB, remoteStore)
appendable = fanoutStore
queryable = fanoutStore
} else {
// 否则,打开TSDB
tsdbDB, err = tsdb.Open(conf.dataDir, log.With(logger, "component", "tsdb"), reg, tsdbOpts, nil)
if err != nil {
return errors.Wrap(err, "open TSDB")
}
// 删除存储锁文件(如果有)
level.Debug(logger).Log("msg", "removing storage lock file if any")
// 如果存在,删除存储锁文件,忽略错误(如果文件不存在)。
if err := removeLockfileIfAny(logger, conf.dataDir); err != nil {
return errors.Wrap(err, "remove storage lock files")
}
{
// 关闭TSDB
done := make(chan struct{})
g.Add(func() error {
<-done // 等待关闭信号
return tsdbDB.Close() // 关闭TSDB
}, func(error) {
close(done) // 关闭通道,允许关闭TSDB
})
appendable = tsdbDB // 设置可追加的存储为TSDB
queryable = tsdbDB // 设置可查询的存储为TSDB
}
// 构建Alertmanager客户端
var alertingCfg alert.AlertingConfig
if len(conf.alertmgrsConfigYAML) > 0 {
// 如果提供了配置文件,则加载Alertmanager配置
alertingCfg, err = alert.LoadAlertingConfig(conf.alertmgrsConfigYAML)
if err != nil {
return err
}
} else {
// 否则,构建Alertmanager配置
for _, addr := range conf.alertmgr.alertmgrURLs {
cfg, err := alert.BuildAlertmanagerConfig(addr, conf.alertmgr.alertmgrsTimeout)
if err != nil {
return err
}
alertingCfg.Alertmanagers = append(alertingCfg.Alertmanagers, cfg)
}
}
if len(alertingCfg.Alertmanagers) == 0 {
level.Warn(logger).Log("msg", "no alertmanager configured")
}
var alertRelabelConfigs []*relabel.Config
// 加载Alertmanager重写配置文件(如果有)
if len(conf.alertRelabelConfigYAML) > 0 {
// 加载Alertmanager重写配置文件(如果有)
alertRelabelConfigs, err = alert.LoadRelabelConfigs(conf.alertRelabelConfigYAML)
if err != nil {
return err
}
}
// 创建Alertmanager提供者
amProvider := dns.NewProvider(
logger, // 日志记录器
extprom.WrapRegistererWithPrefix("thanos_rule_alertmanagers_", reg), // 注册器
d.ResolverType(conf.query.dnsSDResolver), // DNS解析器类型
)
var alertmgrs []*alert.Alertmanager
// 创建Alertmanager客户端度量指标
amClientMetrics := extpromhttp.NewClientMetrics(
extprom.WrapRegistererWith(prometheus.Labels{"client": "alertmanager"}, reg),
)
// 为每个Alertmanager配置创建HTTP客户端
for _, cfg := range alertingCfg.Alertmanagers {
cfg.HTTPClientConfig.ClientMetrics = amClientMetrics
c, err := httpconfig.NewHTTPClient(cfg.HTTPClientConfig, "alertmanager")
if err != nil {
return err
}
c.Transport = tracing.HTTPTripperware(logger, c.Transport)
// 每个Alertmanager客户端都有不同的目标列表,因此每个都需要自己的DNS提供者。
amClient, err := httpconfig.NewClient(logger, cfg.EndpointsConfig, c, amProvider.Clone())
if err != nil {
return err
}
// 发现和解析Alertmanager地址
addDiscoveryGroups(g, amClient, conf.alertmgr.alertmgrsDNSSDInterval)
alertmgrs = append(alertmgrs, alert.NewAlertmanager(logger, amClient, time.Duration(cfg.Timeout), cfg.APIVersion))
}
var (
ruleMgr *thanosrules.Manager
alertQ = alert.NewQueue(logger, reg, 10000, 100, labelsTSDBToProm(conf.lset), conf.alertmgr.alertExcludeLabels, alertRelabelConfigs)
)
{
// 运行规则评估和警报通知
notifyFunc := func(ctx context.Context, expr string, alerts ...*rules.Alert) {
res := make([]*notifier.Alert, 0, len(alerts))
for _, alrt := range alerts {
// 仅发送实际触发的警报
if alrt.State == rules.StatePending {
continue
}
a := ¬ifier.Alert{
StartsAt: alrt.FiredAt, // 触发时间
Labels: alrt.Labels, // 标签
Annotations: alrt.Annotations, // 注释
GeneratorURL: conf.alertQueryURL.String() + strutil.TableLinkForExpression(expr), // 生成器URL
}
if !alrt.ResolvedAt.IsZero() { // 如果警报已解决
a.EndsAt = alrt.ResolvedAt // 解决时间
} else {
a.EndsAt = alrt.ValidUntil // 有效时间
}
res = append(res, a) // 将警报添加到结果中
}
alertQ.Push(res) // 将警报推送到队列中
}
ctx, cancel := context.WithCancel(context.Background())
logger = log.With(logger, "component", "rules")
ruleMgr = thanosrules.NewManager(
tracing.ContextWithTracer(ctx, tracer), // 使用上下文和跟踪器创建新的规则管理器
reg, // 注册器
conf.dataDir, // 数据目录
rules.ManagerOptions{ // 规则管理器选项
NotifyFunc: notifyFunc, // 通知函数
Logger: logger, // 日志记录器
Appendable: appendable, // 可追加对象
ExternalURL: nil, // 外部URL
Queryable: queryable, // 可查询对象
ResendDelay: conf.resendDelay, // 重发延迟
},
// 规则文件加载器,它将从配置中读取规则文件并监视它们的变化
queryFuncCreator(logger, queryClients, metrics.duplicatedQuery, metrics.ruleEvalWarnings, conf.query.httpMethod),
conf.lset,
// 在我们的情况下,查询URL是外部URL,因为用户可以在其中执行警报或记录规则的表达式并获取结果。
conf.alertQueryURL.String(),
)
// 调度规则管理器,评估规则
g.Add(func() error {
ruleMgr.Run()
<-ctx.Done()
return nil
}, func(err error) {
cancel()
ruleMgr.Stop()
})
}
// 运行警报发送器
{
sdr := alert.NewSender(logger, reg, alertmgrs)
ctx, cancel := context.WithCancel(context.Background())
ctx = tracing.ContextWithTracer(ctx, tracer)
g.Add(func() error {
for {
// 发送警报到Alertmanager
tracing.DoInSpan(ctx, "/send_alerts", func(ctx context.Context) {
sdr.Send(ctx, alertQ.Pop(ctx.Done()))
})
select {
case <-ctx.Done(): // 上下文被取消,退出循环
return ctx.Err() // 返回上下文错误
default: // 上下文未取消,继续循环
}
}
}, func(error) {
cancel() // 取消上下文
})
}
// 处理重新加载和终止中断
reloadWebhandler := make(chan chan error)
{
ctx, cancel := context.WithCancel(context.Background())
g.Add(func() error {
// 初始化规则
if err := reloadRules(logger, conf.ruleFiles, ruleMgr, conf.evalInterval, metrics); err != nil {
level.Error(logger).Log("msg", "initialize rules failed", "err", err)
return err
}
for {
select {
case <-reloadSignal:
// 重新加载规则
if err := reloadRules(logger, conf.ruleFiles, ruleMgr, conf.evalInterval, metrics); err != nil {
level.Error(logger).Log("msg", "reload rules by sighup failed", "err", err)
}
case reloadMsg := <-reloadWebhandler: // 通过webhandler重新加载规则
err := reloadRules(logger, conf.ruleFiles, ruleMgr, conf.evalInterval, metrics)
if err != nil {
level.Error(logger).Log("msg", "reload rules by webhandler failed", "err", err)
}
reloadMsg <- err
case <-ctx.Done():
return ctx.Err()
}
}
}, func(error) {
cancel()
})
}
grpcProbe := prober.NewGRPC() // 创建GRPC探针
httpProbe := prober.NewHTTP() // 创建HTTP探针
statusProber := prober.Combine(
httpProbe, // 将HTTP探针和gRPC探针组合起来
grpcProbe, // 创建状态探针
prober.NewInstrumentation(comp, logger, extprom.WrapRegistererWithPrefix("thanos_", reg)), // 创建指标探针
)
// 启动gRPC服务器
tlsCfg, err := tls.NewServerConfig(log.With(logger, "protocol", "gRPC"), conf.grpc.tlsSrvCert, conf.grpc.tlsSrvKey, conf.grpc.tlsSrvClientCA)
if err != nil {
return errors.Wrap(err, "setup gRPC server")
}
options := []grpcserver.Option{
grpcserver.WithServer(thanosrules.RegisterRulesServer(ruleMgr)), // 注册规则服务
grpcserver.WithListen(conf.grpc.bindAddress), // 监听地址
grpcserver.WithGracePeriod(time.Duration(conf.grpc.gracePeriod)), // 设置优雅关闭时间
grpcserver.WithTLSConfig(tlsCfg), // 设置TLS配置
}
infoOptions := []info.ServerOptionFunc{info.WithRulesInfoFunc()} // 创建信息选项
if tsdbDB != nil { // 如果tsdbDB不为空,则创建TSDB存储并注册服务
tsdbStore := store.NewTSDBStore(logger, tsdbDB, component.Rule, conf.lset)
infoOptions = append(
infoOptions, // 将TSDB存储信息添加到信息选项中
info.WithLabelSetFunc(func() []labelpb.ZLabelSet { // 创建标签集函数
return tsdbStore.LabelSet() // 返回标签集
}),
// 创建存储信息函数
info.WithStoreInfoFunc(func() *infopb.StoreInfo {
if httpProbe.IsReady() { // 如果HTTP探针已准备好
mint, maxt := tsdbStore.TimeRange() // 获取时间范围
return &infopb.StoreInfo{ // 返回存储信息
MinTime: mint, // 最小时间
MaxTime: maxt, // 最大时间
}
}
return nil
}),
)
options = append(options, grpcserver.WithServer(store.RegisterStoreServer(tsdbStore)))
}
options = append(options, grpcserver.WithServer(
info.RegisterInfoServer(info.NewInfoServer(component.Rule.String(), infoOptions...)),
))
s := grpcserver.New(logger, reg, tracer, grpcLogOpts, tagOpts, comp, grpcProbe, options...)
g.Add(func() error {
statusProber.Ready()
return s.ListenAndServe()
}, func(err error) {
statusProber.NotReady(err)
s.Shutdown(err)
})
// 启动UI和指标HTTP服务器
{
router := route.New()
// RoutePrefix必须始终以'/'开头。
conf.web.routePrefix = "/" + strings.Trim(conf.web.routePrefix, "/")
// 重定向从/到/webRoutePrefix
if conf.web.routePrefix != "/" {
router.Get("/", func(w http.ResponseWriter, r *http.Request) {
http.Redirect(w, r, conf.web.routePrefix, http.StatusFound)
})
router = router.WithPrefix(conf.web.routePrefix)
}
// /-/reload用于触发规则重新加载。
router.Post("/-/reload", func(w http.ResponseWriter, r *http.Request) {
reloadMsg := make(chan error)
reloadWebhandler <- reloadMsg // 触发规则重新加载
// 如果重新加载失败,则返回错误
if err := <-reloadMsg; err != nil {
http.Error(w, err.Error(), http.StatusInternalServerError)
}
})
ins := extpromhttp.NewInstrumentationMiddleware(reg, nil)
// 配置HTTP调用的请求日志记录
logMiddleware := logging.NewHTTPServerMiddleware(logger, httpLogOpts...)
// TODO(bplotka in PR #513 review): 传递所有标志,而不仅仅是重写前缀所需的标志。
ui.NewRuleUI(logger, reg, ruleMgr, conf.alertQueryURL.String(), conf.web.externalPrefix, conf.web.prefixHeaderName).Register(router, ins)
// 注册API路由
api := v1.NewRuleAPI(logger, reg, thanosrules.NewGRPCClient(ruleMgr), ruleMgr, conf.web.disableCORS, flagsMap)
// 注册API路由
api.Register(router.WithPrefix("/api/v1"), tracer, logger, ins, logMiddleware)
srv := httpserver.New(logger, reg, comp, httpProbe,
httpserver.WithListen(conf.http.bindAddress), // 监听地址
httpserver.WithGracePeriod(time.Duration(conf.http.gracePeriod)), // 设置优雅关闭时间
httpserver.WithTLSConfig(conf.http.tlsConfig), // 设置TLS配置
)
srv.Handle("/", router) // 注册路由
g.Add(func() error {
statusProber.Healthy() // 设置健康状态
return srv.ListenAndServe()
}, func(err error) {
statusProber.NotReady(err)
defer statusProber.NotHealthy(err)
srv.Shutdown(err)
})
}
// objStoreConfig.Content() 返回对象存储配置的内容
confContentYaml, err := conf.objStoreConfig.Content()
if err != nil {
return err
}
// 如果配置了对象存储,则创建一个新的对象存储客户端并启动后台上传任务
if len(confContentYaml) > 0 {
// The background shipper continuously scans the data directory and uploads
// new blocks to Google Cloud Storage or an S3-compatible storage service.
// 创建一个新的对象存储客户端
bkt, err := client.NewBucket(logger, confContentYaml, reg, component.Rule.String())
if err != nil {
return err
}
// 确保我们正确关闭所有内容。
defer func() {
if err != nil {
runutil.CloseWithLogOnErr(logger, bkt, "bucket client")
}
}()
// 创建一个规则上传器并启动后台上传任务
s := shipper.New(logger, reg, conf.dataDir, bkt, func() labels.Labels { return conf.lset }, metadata.RulerSource, false, conf.shipper.allowOutOfOrderUpload, metadata.HashFunc(conf.shipper.hashFunc))
ctx, cancel := context.WithCancel(context.Background())
g.Add(func() error {
defer runutil.CloseWithLogOnErr(logger, bkt, "bucket client")
return runutil.Repeat(30*time.Second, ctx.Done(), func() error {
if _, err := s.Sync(ctx); err != nil {
level.Warn(logger).Log("err", err)
}
return nil
})
}, func(error) {
cancel()
})
} else {
level.Info(logger).Log("msg", "no supported bucket was configured, uploads will be disabled")
}
level.Info(logger).Log("msg", "starting rule node")
return nil
}
// labelsTSDBToProm 将 Prometheus 的标签集合转换为 Prometheus 兼容的标签集合
//
// 参数:
//
// lset: Prometheus 的标签集合
//
// 返回值:
//
// res: 转换后的 Prometheus 兼容的标签集合
func labelsTSDBToProm(lset labels.Labels) (res labels.Labels) {
// 遍历lset中的每个标签
for _, l := range lset {
// 将每个标签添加到结果集中
res = append(res, labels.Label{
// 标签名
Name: l.Name,
// 标签值
Value: l.Value,
})
}
return res
}
// removeDuplicateQueryEndpoints 函数用于移除重复的查询端点。
//
// 参数:
// - logger: 用于记录日志的 log.Logger 实例。
// - duplicatedQueriers: 用于记录重复查询端点数量的 prometheus.Counter 实例。
// - urls: 待去重的 []*url.URL 列表。
//
// 返回值:
// - 返回一个 []*url.URL 列表,其中包含了去重后的查询端点。
func removeDuplicateQueryEndpoints(logger log.Logger, duplicatedQueriers prometheus.Counter, urls []*url.URL) []*url.URL {
// 创建一个map用于存储已访问过的URL
set := make(map[string]struct{})
// 创建一个slice用于存储去重后的URL
deduplicated := make([]*url.URL, 0, len(urls))
// 遍历输入的URL列表
for _, u := range urls {
// 判断当前URL是否已存在于set中
if _, ok := set[u.String()]; ok {
// 如果已存在,则记录日志并增加计数器
level.Warn(logger).Log("msg", "duplicate query address is provided", "addr", u.String())
duplicatedQueriers.Inc()
continue // 跳过当前循环
}
// 如果当前URL不在set中,则将其添加到deduplicated中
deduplicated = append(deduplicated, u)
// 将当前URL添加到set中
set[u.String()] = struct{}{}
}
return deduplicated
}
func queryFuncCreator(
logger log.Logger, // 日志记录器
queriers []*httpconfig.Client, // 查询客户端列表
duplicatedQuery prometheus.Counter, // 重复查询计数器
ruleEvalWarnings *prometheus.CounterVec, // 规则评估警告计数器
httpMethod string, // HTTP请求方法
) func(partialResponseStrategy storepb.PartialResponseStrategy) rules.QueryFunc {
// 返回一个查询函数,该函数以随机顺序访问查询对等方的HTTP查询API,直到获得结果或上下文被取消
// queryFunc returns query function that hits the HTTP query API of query peers in randomized order until we get a result
// back or the context get canceled.
return func(partialResponseStrategy storepb.PartialResponseStrategy) rules.QueryFunc {
var spanID string
// 根据部分响应策略设置spanID
switch partialResponseStrategy {
case storepb.PartialResponseStrategy_WARN:
spanID = "/rule_instant_query HTTP[client]"
case storepb.PartialResponseStrategy_ABORT:
spanID = "/rule_instant_query_part_resp_abort HTTP[client]"
default:
// 编程错误将由测试捕获
// Programming error will be caught by tests.
panic(errors.Errorf("unknown partial response strategy %v", partialResponseStrategy).Error())
}
// 创建Prometheus客户端列表
promClients := make([]*promclient.Client, 0, len(queriers))
for _, q := range queriers {
promClients = append(promClients, promclient.NewClient(q, logger, "thanos-rule"))
}
// 返回实际的查询函数
return func(ctx context.Context, q string, t time.Time) (promql.Vector, error) {
// 随机顺序访问查询对等方
for _, i := range rand.Perm(len(queriers)) {
promClient := promClients[i]
endpoints := removeDuplicateQueryEndpoints(logger, duplicatedQuery, queriers[i].Endpoints())
// 随机顺序访问每个端点
for _, i := range rand.Perm(len(endpoints)) {
span, ctx := tracing.StartSpan(ctx, spanID)
v, warns, err := promClient.PromqlQueryInstant(ctx, endpoints[i], q, t, promclient.QueryOptions{
Deduplicate: true,
PartialResponseStrategy: partialResponseStrategy,
Method: httpMethod,
})
span.Finish()
if err != nil {
level.Error(logger).Log("err", err, "query", q)
continue
}
if len(warns) > 0 {
ruleEvalWarnings.WithLabelValues(strings.ToLower(partialResponseStrategy.String())).Inc()
// TODO(bwplotka): 将这些警告传播到UI,可能需要更改规则管理器代码
// TODO(bwplotka): Propagate those to UI, probably requires changing rule manager code ):
level.Warn(logger).Log("warnings", strings.Join(warns, ", "), "query", q)
}
return v, nil
}
}
return nil, errors.Errorf("no query API server reachable")
}
}
}
// addDiscoveryGroups 向 run.Group 中添加两个任务,一个用于发现服务,另一个用于定期解析服务。
//
// 参数:
//
// g *run.Group: 一个指向 run.Group 类型的指针,用于管理并发任务。
// c *httpconfig.Client: 一个指向 httpconfig.Client 类型的指针,用于与服务进行通信。
// interval time.Duration: 定期解析服务的间隔时间。
func addDiscoveryGroups(g *run.Group, c *httpconfig.Client, interval time.Duration) {
// 创建一个可取消的上下文
ctx, cancel := context.WithCancel(context.Background())
// 添加第一个任务,用于发现服务
g.Add(func() error {
// 执行发现服务的操作
c.Discover(ctx)
return nil
}, func(error) {
// 如果发现服务失败,则取消上下文
cancel()
})
// 添加第二个任务,用于定期解析服务
g.Add(func() error {
return runutil.Repeat(interval, ctx.Done(), func() error {
// 执行解析服务的操作
return c.Resolve(ctx)
})
}, func(error) {
// 如果解析服务失败,则取消上下文
cancel()
})
}
// reloadRules 函数用于重新加载规则。
//
// 参数:
// - logger: log.Logger 类型,用于记录日志。
// - ruleFiles: []string 类型,包含规则文件的路径列表。
// - ruleMgr: *thanosrules.Manager 类型,指向规则管理器的指针。
// - evalInterval: time.Duration 类型,表示评估间隔。
// - metrics: *RuleMetrics 类型,包含规则相关的度量指标。
//
// 返回值:
// - error 类型,如果重新加载规则时发生错误,则返回错误信息;否则返回 nil。
func reloadRules(logger log.Logger,
ruleFiles []string,
ruleMgr *thanosrules.Manager,
evalInterval time.Duration,
metrics *RuleMetrics) error {
// 记录配置的规则文件
level.Debug(logger).Log("msg", "configured rule files", "files", strings.Join(ruleFiles, ","))
var (
errs errutil.MultiError
files []string
seenFiles = make(map[string]struct{})
)
// 遍历规则文件列表
for _, pat := range ruleFiles {
fs, err := filepath.Glob(pat)
if err != nil {
// 唯一的错误可能是模式不正确
// 检索规则文件失败。忽略文件。模式 %s
errs.Add(errors.Wrapf(err, "retrieving rule files failed. Ignoring file. pattern %s", pat))
continue
}
// 遍历匹配的文件列表
for _, fp := range fs {
if _, ok := seenFiles[fp]; ok {
continue
}
files = append(files, fp)
seenFiles[fp] = struct{}{}
}
}
// 记录重新加载的规则文件数量
level.Info(logger).Log("msg", "reload rule files", "numFiles", len(files))
// 更新规则管理器
if err := ruleMgr.Update(evalInterval, files); err != nil {
metrics.configSuccess.Set(0)
// 重新加载规则失败
errs.Add(errors.Wrap(err, "reloading rules failed"))
return errs.Err()
}
metrics.configSuccess.Set(1)
metrics.configSuccessTime.Set(float64(time.Now().UnixNano()) / 1e9)
metrics.rulesLoaded.Reset()
// 遍历规则组
for _, group := range ruleMgr.RuleGroups() {
// 记录加载的规则数量
metrics.rulesLoaded.WithLabelValues(group.PartialResponseStrategy.String(), group.OriginalFile, group.Name()).Set(float64(len(group.Rules())))
}
return errs.Err()
}

浙公网安备 33010602011771号