Mysql-二刷一些重要知识点记录
- 
执行DDL的时候,即使此DDL被其他DML阻塞了,但是后续DML都会被此DDL阻塞 (个人理解:DDL、DML按照申请顺序排队执行)[DML加MDL读锁,DDL加MDL写锁,读写之间互斥] 使用online ddl也就不害怕线上DDL了 
- 
change buffer存储insert 和 update的数据。如果不马上查询,起到加速DML的作用 
- 
[尽量使用普通索引代替唯一索引]唯一索引因为要校验唯一性,因此不会使用change buffer 
- 
[索引长度尽量控制短一些]索引一页的大小16B,因此长度过长单页上存储的数据就少,查询效率就低一些,因此对于一些字符串索引使用 select count(distinct left(room_id, 4)) from live_playback 来找到包含95%的长度即可 
- 
[Mysql策略:内存中有一定是正确的,内存中没有磁盘一定是正确的] 因此从内存淘汰脏页会flush到磁盘的 
- 
[监控redo log和脏页使用率] 因为redo log满了则mysql的update等只能阻塞等flush到磁盘后操作了,业务无法接受的性能。 因为脏页过多,如果一次查询需要淘汰的脏页多的话,需要等flush到磁盘后再执行,业务无法接受的性能。 
- 
[删除记录不会让空间缩小] 数据页单个记录删除,删除的记录被标记为可复用(复用的位置,新增的记录必须满足原记录的范围关系,比如删除的记录左右两边范围是(600,800),那只有这个区间的插入才能复用到) 数据页整个页删除,删除的页被标记为可复用(这个页可以被直接应用) 随机插入,如果某个数据页满了,会也分裂,导致原页尾部空间的浪费 
- 
重建表alter table t engine=InnoDB每个数据页会预留1/16的空间,因此其也不是最紧凑的。这个命令在mysql5.6后是online ddl了 
- 
[count(*)效率最高,因为Mysql针对其进行了优化] 首先,其会在逻辑正确下,找最小的索引数进行统计 
 然后,它也不会取出字段值,直接让server层累加count(字段)<count(主键id)<count(1)≈count(*) 
- 
[order by无法借助索引,则会使用设定的内存排序,大小不足借助磁盘使用归并排序] select a,b,c from table where b='xx' order a limit 1000 - 全字段排序
- 所有需要返回字段长度<设定的max_length_for_sort_data,排序使用(a,b,c)全字段
 
- rowid排序
- 排序使用(a,id)字段排序,排序后根据limit 1000 按照id回表聚簇索引,将a,b,c返回
 
- 联合索引(b,a),即可通过索引避免排序
 
- 全字段排序
- 
[using temporary使用memory内存引擎,因此再其基础上的排序,优先使用rowid] 因为内存排序,字段越少,sort buffer空间有限时,能排序的越多 当然,小于tmp_table_size使用memroy内存临时表(默认16M),大于的话只能使用磁盘临时表了 
- 
[索引失效:加函数、类型隐式转换、字符集不一致] 说到底都是因为查询的字段加了函数,导致索引失效 - mysql默认将字符串转为数值,因此 varchar(32) b = 100,实际是cast(b int) = 100,索引失效
- 表的字符编码不一致,mysql默认转为父类的编码进行处理
 
- 
[字符串查询大坑] https://www.cnblogs.com/ningxinjie/p/17336895.html [最下面上期问题时间]内详细说明 根据字符串字段设定长度阶段 + 查询 + server判断 比如字段b是varchar(4),数据库中b的值为1234有10万行,我们要查询b='12345',mysql会先截断前4位1234,然后查询,因为select *,因此一个个回表,然后server判断1234!=12345,最后返回为空。 因此这条查询语句执行是非常慢的 那业务该如何避免呢? - b区分区太低了,比如1234有10万行,这种如果是随机产生的,直接存到es中,使用倒排索引形式供用户或者业务查询
- 如果是业务含义,长度固定为4的话,则查询前校验合法性,比如长度不是4那不合法,直接报错返回,就不要查db了
 
- 
[RR引入间隙锁的目的是为了解决binlog记录内容回放与实际执行不一致] 在读已提交下,不引入间隙锁,使用binlog的row格式即可解决(不过测试感觉并没有锁住那一行,执行更新的时候其他事务提交了,也会顺带把后续提交事务的那行数据改了,所以我感觉这种配置的作用是为了防止其他场景的数据不一致) 
- 
[加锁分析精髓都在这了:https://www.cnblogs.com/ningxinjie/p/17336904.html](针对读已提交的隔离级别) - 2个原则
- 加锁单位是next-key-lock,即前开后闭
- 访问到的才会加锁
 
- 2个优化(都是针对索引的等值查询)
- [等值查询时]唯一索引存在,则next-key-lock退化为行锁
- [等值查询时]向右遍历最后一个值不满足,则next-key-lock退还为间隙锁,即前开后开
 
- 1个bug
- 唯一索引的范围查询也会访问到不满足第一个值为止(即不论你是普通索引还是唯一索引,找到当前值,也会继续找下一个,即使唯一索引下一个值一定不满足,也会找,访问到的就会加锁)
 
 
- 2个原则
- 
[next-key-lock实质是间隙锁+行锁,加锁过程也是分两段加,先加间隙锁,再加行锁] 间隙锁之间不冲突,行锁之间冲突 sessionA sessionB begin select id from t where c=10 for update select id from t where c=10 for update 
 [block]insert into t value(8,8,8) error 1213 
 检测到死锁sessionA执行的语句,加(5,10]next-key-lock和(10,15)的间隙锁 虽然sessionB被block了,但是其加锁过程是:想要加(5,10]的next-key-lock,具体过程是先加(5,10)的间隙锁,加锁成功,再加10的行锁,被block了,因此sessionA需要插入数据时被sessionB的间隙锁阻塞了,造成了死锁! 
- 
[mysql是如何保证redo log与binlog完整性的] 原文地址:https://www.cnblogs.com/ningxinjie/p/17336913.html write:是写到操作系统的page cache fsync:是刷到磁盘(占用磁盘 IOPS) 引言:我们都知道redo log + binlog可以做到崩溃恢复(crash - safe),那redo log与binlog的完整性mysql是如何保证的呢? - 
binlog: - 
要点:事务提交后才能写入binlog,且要保证事务的完整性。(因为记录到binlog备库就要使用了,因此事务未提交绝对不能记录到binlog) 
- 
先写binlog cache(每个线程/会话 1份,大小不足使用磁盘临时文件来记录),再写binlog文件 
- 
sync_binlog 含义 0 每次提交只write,不fsync 1 每次提交都会fsync N 累计N次提交后fsync 
 
- 
- 
redo log - 
要点:和binlog不同,其事务是否提交记录到redo log,备库也不用,因此无所谓 
- 
先写redo log buffer(共用1个),再写redo log文件 
- 
innodb_flush_log_at_trx_commit 含义 0 每次提交只把redo 留到redo log buffer中 1 每次提交都会把redo log buffer fync到磁盘 2 每次提交都会把redo log buffer write到page cache 
 
- 
- 
双1配置: - sync_binlog=1&innodb_flush_log_at_trx_commit=1
 
- 
mysql的优化 - 
redo log的组提交:redo log buffer空间是共享的,因此在一个事务提交时,会连同其他事务的redo log一起fsync,这些被连带提交的事务,在真正提交时发现自己需要提交的redo log已经被fsync了,就不必再操作了。(使用LSN的概念来记录长度的,这个说后文会讲,先记录下) 
- 
binlog的组提交:因为binlog是每个先成一份cache,因此在binlog cache没法使用组提交,因此mysql将binlog的write后,需要fsync时,将write的部分一起fsync。 
- 
binlog_group_commit_sync_delay 表示redo log repare阶段fsync后延迟多少微秒后再执行binlog的fsync binlog_group_commit_sync_no_delay_count 表示累计多少次以后再执行fsync 以上表格binlog希望尽量应用到组提交的属性,是或的关系(即满足1个就fsync了) 
- 
![]() 
 
- 
- 
说明一点:fsync是针对redo log的prepare阶段和binlog的写入阶段的。redo log的commit阶段是直接write的,因为有了前两个阶段就已经能实现crash-safe了,因此redo log的commit阶段不直接刷盘了! 
- 
- 
补充:redo log的组提交的个人新理解:第一个事务提交的时候,会等待一小段时间,如果这段时间其他事务也提交了,就一起刷到redo log中(标记这些为prepare阶段)。针对其他正在进行中的但是未提交事务,我理解就是不会标记prepare阶段 
- 
[当主从延迟变大时,从库可以修改redo log和binlog的刷盘时机,来加速主从同步] 
 
- 
- 
[主从延迟second_behind_master的计算值 = 从库执行完SQL时间 - 主库提交binlog的时间] - 
主库执行完语句,从binlog cache写入binlog,时间为T1 细说就是:redo log的prepare阶段写入完成,binlog写入,此时就会同步了,而不用等redo log的commit阶段 
- 
主库发送给从库,从库接收并记录到relay log,时间为T2 
- 
从库执行relay log中的语句,时间为T3 
 second_behind_master = T3 - T1 【通常, seconds_behind_master的值是根据从库正在执行的 relay log 语句的时间戳与最新接收的 relay log 语句的时间戳之间的差异来计算的。这个差异表示了从库在执行当前语句之前所滞后的时间。】![]() 
- 
- 
[只有在事务提交的时候,才会写入binlog,从库才会收到] 这部分内容在上方有说明,但是因为写的太长了,就把要点单独抽出来写一下 事务未提交的时候 - 
对于binlog:语句一定在binlog cache(线程隔离、事务隔离) 
- 
(我个人的理解,因为按照这个理解,下面才能串通)对于redo log:语句不一定都在redo log buffer,因为组提交可能随着一个事务的提交,已经写入了redo log。第一个事务需要提交时,稍等一小段时间再提交 - 这段时间提交了的事务,则同时记录prepare阶段
- 这段时间未提交的事务,则只记录到redo log不标记阶段
 
 
- 
- 
[为了减少主从延迟,从库尽量针对不同事务并行复制] 原文地址:https://www.cnblogs.com/ningxinjie/p/17336925.html 以下2个为原则: - 同一个事务不拆解(为了保证从库查询事务的一致性)【因此1个大事务不会被拆解并行同步】
- 操作同一行的不同事务,不能并行(为了保证主从数据的一致性)
 总结下从库并行复制的思路: - 按表复制
- 按行复制(采用这个)
 只要不同事务不涉及同一个行,就可以并发,执行逻辑如下: - 不同事务不涉及处理同一行,直接分配给空闲worker处理即可
- 涉及同一行,且与多个worker冲突,阻塞等待
- 涉及同一行,且只与一个worker冲突,分配给那个冲突的worker排队执行,不再阻塞,继续分发并行后置relay log
 期间纠正到的知识点: - redo log的组提交是第一个事务在提交的时候等待一小段时间,如果期间有其他事务也提交了,就一起写入redo log的prepare阶段
 - 处于prepare一起可提交的,和redo log commit期间的,这两部门的事务都是可以直接并行执行的(因为如果涉及到行锁,他们就不可能处于同时提交状态)
 总结: 记住按行复制的思路即可(除了id,也得考虑唯一键等)。 事务A:拆解涉及到哪些行修改 事务B:拆解涉及到哪些行修改 无冲突则并行,有冲突则看是否只有一个冲突,是则排队,否则阻塞等待 
- 
[GTID——切到新主库 和 新接从库 的优雅稳定的方式] GTID模式默认选取的主库包含全部的数据,如果新选择的主库比从库少数据,那GTID模式的主从同步会直接报错! 对于当前已经存在得GTID,数据库会直接忽略此条SQL。 切新主库的时候:从库将自己的GTID发送给新主库,新主库验证全部GTID全都存在 - 不存在则直接报错,停止同步
- 存在则找到主库还未同步给从库最小的GTID语句,从此处开始同步给从库,从库对于GTID相同的直接忽略
 可使用以下两条命令查看是否开启了gtid(小红书这边是开启的) SELECT @@global.gtid_mode;SHOW GLOBAL VARIABLES LIKE 'gtid_mode';
- 
[间隙锁看最右边,如果左边边界被删除,锁的范围会被放大] 锁的答疑文章:https://www.cnblogs.com/ningxinjie/p/17336941.html 再说一句:间隙锁和next-key-lock要求隔离级别是可重复度!如果你是读已提交,就不会有这些锁! 隔离级别的查询: SELECT @@tx_isolation;- 
比如sessionA加锁范围是(5,10],sessionB先删除5这行,再插入5这行就会被阻塞。因为当sessionB删除5这行时,sessionA的范围就变成(0,10](这里假设0是db存储5前面那个值) sessionA sessionB begin 
 select * from t where c > 5 and c <10 for updatedelete from t where c = 5 此时 (5,10],因为5的缺失,锁范围变成(0,10] Insert t values(5,5) 
 会被阻塞- sessonA的加锁过程
- (等值查询)先找到c>5的第一个值c=10,对其加next-key-lock (5,10]
- 因为c=10已经不满足了,因此停止了遍历
 
 多说一下:如果语句是 select * from t where c > 5 and c <10 for update则加锁过程是(先等值找,再后面都是范围查询,范围查询就不会进行优化条件) - (等值查询)先找到c>5的第一个值c=10,对其加next-key-lock (5,10]
- (范围查询,因此不会退还为间隙锁)继续向右遍历下一个c=15,对其加next-key-lock (10,15]
 
- sessonA的加锁过程
 
- 
- 
[buffer pool 是引擎层的] 
 [大表全表查询发挥,服务端是分批返回给客户端的,因此即使是超大表,也不会因为数据过多造成OOM]server层: net_buffer(每个线程独立各一个) 本地网络栈(server层共享一个) - 查询结果数据写到net_buffer中。这块内存大小默认16k,每个线程一个
- 当本线程的net_buffer内存空间写满,则调用网络接口发给客户端
- 如果发送成功则清空net_buffer,继续读取数据
- 如果发送函数返回EAGAIN或WSAEWOULDBLOCK,就表示本地网格栈写满了,只能阻塞等到本地网格栈有空间后才能继续。
 innodb层: buffer pool内存页的优化 内存页采用LRU的变形(划分为young区和old区域(5:3的占比))。 这个old和young跟之前理解相反,新读进来的内存页先放到old区头部,如果下次读取old区的内存页发现其已经在内存停留了1s则移到young区的头部(这样就避免了一部分历史大表的扫描,导致内存命中率降低) 
- 
[领略个核心要点:分析为什么需要加锁,可以看最终的binlog会不会造成数据不一致,如果从库回放数据不一致,那就需要锁来保证] 
 
                    
                


 
                
            
         浙公网安备 33010602011771号
浙公网安备 33010602011771号