备库Seconds_Behind_Master的计算

背景

在mysql主备环境下,主备同步过程如下,主库更新产生binlog, 备库io线程拉取主库binlog生成relay log。备库sql线程执行relay log从而保持和主库同步。

理论上主库有更新时,备库都存在延迟,且延迟时间为备库执行时间+网络传输时间即t4-t2。

那么mysql是怎么来计算备库延迟的?

先来看show slave status中的一些信息

io线程拉取主库binlog的位置

Master_Log_File: mysql-bin。000001     
Read_Master_Log_Pos: 107    

sql线程执行relay log的位置

 Relay_Log_File: slave-relay。000003
 Relay_Log_Pos: 253

sql线程执行的relay log相对于主库binlog的位置

Relay_Master_Log_File: mysql-bin。000001
Exec_Master_Log_Pos: 107

源码实现

Seconds_Behind_Master计算的源码实现如下

if ((mi->get_master_log_pos() == mi->rli->get_group_master_log_pos()) &&
    (!strcmp(mi->get_master_log_name(), mi->rli->get_group_master_log_name())))
{
  if (mi->slave_running == MYSQL_SLAVE_RUN_CONNECT)
    protocol->store(0LL);
  else
    protocol->store_null();
}
else
{
  long time_diff= ((long)(time(0) - mi->rli->last_master_timestamp)
                   - mi->clock_diff_with_master);

  protocol->store((longlong)(mi->rli->last_master_timestamp ? max(0L, time_diff) : 0));
}

大致可以看出是通过时间和位点来计算的,下面详细分析下

if里面条件表示如果io线程拉取主库binlog的位置和sql线程执行的relay log相对于主库binlog的位置相等,那么认为延迟为0。 一般情况下,io线程比sql线程快。但如果网络状况特别差,导致sql线程需等待io线程的情况,那么这两个位点可能相等,会导致误认为延迟为0。

再看else里,

  • clock_diff_with_master io线程启动时会向主库发送sql语句“SELECT UNIX_TIMESTAMP()”,获取主库当前时间,然而用备库当前时间减去此时间或者主备时间差值即为clock_diff_with_master。 这里如果有用户中途修改了主库系统时间或修改了timestamp变量,那么计算出备库延迟时间就是不准确的。

  • last_master_timestamp 表示主库执行binlog事件的时间。 此时间在并行复制和非并行复制时的计算方法是不同的 非并行复制: 备库sql线程读取了relay log中的event,event未执行之前就会更新last_master_timestamp。这里时间的更新是以event为单位。

    rli->last_master_timestamp= ev->when。tv_sec + (time_t) ev->exec_time;

    ev->when。tv_sec表示事件的开始时间。 exec_time指事件在主库的执行时间,只有Query_log_event和Load_log_event才会统计exec_time。 另外一种情况是sql线程在等待io线程获取binlog时,会将last_master_timestamp设为0。 last_master_timestamp为0时,按上面的算法Seconds_Behind_Master为0。此时任务备库是没有延迟的。

并行复制

并行复制有一个分发队列gaq,sql线程将binlog事务读取到gaq,然后再分发给worker线程执行。并行复制时,binlog事件是并发穿插执行的,gaq中有一个checkpoint点称为lwm, lwm之前的binlog都已经执行,而lwm之后的binlog有些执行有些没有执行。 假设worker线程数为2, gap有1,2,3,4,5,6,7,8个事务。 worker 1已执行的事务为1 4 6 ,woker 2执行的事务为2 3 。 那么lwm为4。

并行复制更新gap checkpiont时,会推进lwm点,同时更新last_master_timestamp为lwm所在事务结束的event的时间。 因此,并行复制是在事务执行完成后才更新last_master_timestamp,更新是以事务为单位。

同时更新gap checkpiont还受slave_checkpoint_period参数的影响。

这导致并行复制下和非并行复制统计延迟存在差距,差距可能为slave_checkpoint_period+ 事务在备库执行的时间。这就是为什么在并行复制下有时候会有很小的延迟,而改为非并行复制时反而没有延迟的原因。

另外当sql线程等待io线程时且gaq队列为空时,会将last_master_timestamp设为0。同样此时认为没有延迟,计算得出seconds_Behind_Master为0

位点信息维护

  • io线程拉取binlog的位点

    Master_Log_File 读取到主库ROTATE_EVENT时会更新(process_io_rotate)    
    Read_Master_Log_Pos:io线程每取到一个event都会从event中读取pos信息并更新
    mi->set_master_log_pos(mi->get_master_log_pos() + inc_pos);
  • sql线程执行relay log的位置

    Relay_Log_File
    sql线程处理ROTATE_EVENT时更新(Rotate_log_event::do_update_pos)
    Relay_Log_Pos: 
    非并行复制时,每个语句执行完成更新(stmt_done)
    并行复制时,事务完成时更新(Rotate_log_event::do_update_pos/ Xid_log_event::do_apply_event/stmt_done)
  • sql线程执行的relay log相对于主库binlog的位置

    Relay_Master_Log_File
    sql线程处理ROTATE_EVENT时更新(Rotate_log_event::do_update_pos)           
    Exec_Master_Log_Pos 和Relay_Log_Pos同时更新
    非并行复制时,每个语句执行完成更新(stmt_done)
    并行复制时,事务完成时更新(Rotate_log_event::do_update_pos/ Xid_log_event::do_apply_event/stmt_done)

谈到位点更新就有必要说到两个事件:HEARTBEAT_LOG_EVENT 和 ROTATE_EVENT

  • HEARTBEAT_LOG_EVENT

HEARTBEAT_LOG_EVENT我们的了解一般作用是,在主库没有更新的时候,每隔master_heartbeat_period时间都发送此事件保持主库与备库的连接。 而HEARTBEAT_LOG_EVENT另一个作用是,再gtid模式下,主库有些gtid备库已经执行同时,这些事件虽然不需要再备库执行,但读取和应用binglog的位点还是要推进。 因此,这里将这类event转化为HEARTBEAT_LOG_EVENT,由HEARTBEAT_LOG_EVENT帮助我们推进位点。

  • ROTATE_EVENT

主库binlog切换产生的ROTATE_EVENT,备库io线程收到时会也有切换relay log。此rotate也会记入relay log,sql线程执行ROTATE_EVENT只更新位点信息。 备库io线程接受主库的HEARTBEAT_LOG_EVENT,一般不用户处理。前面提到,gtid模式下,当HEARTBEAT_LOG_EVENT的位点大于当前记录的位点时,会构建一个ROTATE_EVENT,从而让sql线程推进位点信息。

if (mi->is_auto_position()  && mi->get_master_log_pos() < hb。log_pos
    &&  mi->get_master_log_name() != NULL)
{
  mi->set_master_log_pos(hb。log_pos);
  write_ignored_events_info_to_relay_log(mi->info_thd, mi); //构建ROTATE_EVENT
  ......
}

另外,在replicate_same_server_id为0时,备库接收到的binlog与主库severid相同时,备库会忽略此binlog,但位点仍然需要推进。为了效率,此binlog不需要记入relay log。而是替换为ROTATE_EVENT来推进位点。

延迟现象

初始主备是同步的,且没有任何更新。 假设主备库执行某个DDL在都需要30s,执行某个大更新事务(例如insert..select * from )需要30s。

不考虑网络延迟。

  • 非并行复制时

执行DDL: t2时刻主库执行完,t2时刻备库执行show slave status,Seconds_Behind_Master值为0。同时t2至t3 Seconds_Behind_Master依次增大至30,然后跌0。

执行大事务:t2时刻主库执行完,t2时刻备库执行show slave status,Seconds_Behind_Master值为30。同时t2至t3 Seconds_Behind_Master依次增大至60,然后跌0。

以上区别的原因是exec_time只有Query_log_event和Load_log_event才会统计,普通更新没有统计导致。

  • 并行复制时

执行DDL: t2时刻主库执行完,t2至t3备库执行show slave status,Seconds_Behind_Master值一直为0

执行大事务:t2时刻主库执行完,t2至t3备库执行show slave status,Seconds_Behind_Master值一直为0

这是因为执行语句之前主备是完全同步的,gaq队列为空,会将last_master_timestamp设为0。而执行DDL过程中,gap checkpoint一直没有推进,last_master_timestamp一直未0,直到DDL或大事务完成。 所以t2至t3时刻Seconds_Behind_Master值一直为0。而t3时刻有一瞬间last_master_timestamp是会重置的,但又因slave_checkpoint_period会推进checkpoint,gaq队列变为空,会将last_master_timestamp重设为0。 因此t3时刻可能看到瞬间有延迟(对于DDL是延迟30s,对于大事务时延迟60s)。

这似乎很不合理,gaq队列为空,会将last_master_timestamp设为0,这条规则实际可以去掉。

相关bug

BUG#72376, PREVIOUS_GTIDS_LOG_EVENT事件记录在每个binlog的开头,表示先前所有文件的gtid集合。relay-log本身event记录是主库的时间,但relay log开头的PREVIOUS_GTIDS_LOG_EVENT事件,是在slave端生成的,时间也是以slave为准的。 因此不能用此时间计算last_master_timestamp。 修复方法是在relay log写PREVIOUS_GTIDS_LOG_EVENT事件是标记是relay log产生的,在统计last_master_timestamp时,发现是relay产生的事件则忽略统计。

if (is_relay_log)
  prev_gtids_ev。set_relay_log_event();
   ......
if (!(ev->is_artificial_event()||...))
   rli->last_master_timestamp= ev->when。tv_sec + (time_t) ev->exec_time;

总结

Seconds_Behind_Master的计算并不准确和可靠。并行复制下Seconds_Behind_Master值比非并行复制时偏大。因此当我们判断备库是否延迟时,根据Seconds_Behind_Master=0不一定可靠。但是,当我们进行主备切换时,在主库停写的情况下,我们可以根据位点来判断是否完全同步。 如果(Relay_Master_Log_File,Exec_Master_Log_Pos)和(Relay_Master_Log_File,Read_Master_Log_Pos)位置相等且Seconds_Behind_Master=0,那么我们可以认为主备是完成同步的,可以进行切换。

posted @ 2016-03-15 10:13  sstrive  阅读(1231)  评论(0编辑  收藏  举报