CPU上下⽂切换是什么意思
什么是 CPU 上下文?
多个进程竞争 CPU 会导致平均负载( Load Average)升高,但是进程在竞争 CPU 的时候并没有真正运⾏,为什么还会导致系统的负载升⾼呢?原因就在于CPU 上下⽂切换。Linux 是⼀个多任务操作系统,它⽀持远⼤于 CPU 数量的任务同时运⾏。当然,这些任务实际上并不是真的在同时运⾏,而是因为系统在很短的时间内,将 CPU 轮流分配给它们,造成多任务同时运⾏的错觉。⽽在每个任务运⾏前,CPU都需要知道任务从哪⾥加载、⼜从哪⾥开始运⾏,也就是说,需要系统事先帮它设置好 CPU 寄存器和程序计数器(Program Counter,PC)。CPU 寄存器,是 CPU 内置的容量⼩、但速度极快的内存。⽽程序计数器,则是⽤来存储 CPU 正在执⾏的指令位置、或者即将执⾏的下⼀条指令位置。它们都是 CPU 在运⾏任何任务前,必须的依赖环境,因此也被叫做 CPU 上下⽂。
- 寄存器:存储计算所需要的数据,比如变量、中间结果、状态标志等。
- 程序计数器:记录当前正在执行的指令的地址,或下一条要执行的指令地址
什么是 CPU 上下文切换?
CPU 上下⽂切换,就是先把前⼀个任务的 CPU 上下⽂(也就是 CPU 寄存器和程序计数器)保存起来,然后加载新任务的上下⽂到这些寄存器和程序计数器,最后再跳转到程序计数器所指的新位置,运⾏新任务。⽽这些保存下来的上下⽂,会存储在系统内核中,并在任务重新调度执⾏时再次加载进来。这样就能保证任务原来的状态不受影响,让任务看起来还是连续运⾏。
- CPU 上下文保存位置:内核管理的内存中,分为进程控制块(PCB)和线程控制块(TCB)
CPU 上下文切换类型
根据任务的不同,CPU 的上下⽂切换就可以分为⼏个不同的场景,也就是
- 进程上下⽂切换
- 线程上下⽂切换
- 中断上下⽂切换
进程上下⽂切换
Linux 按照特权等级,把进程的运⾏空间分为内核空间和⽤户空间,分别对应着下图中, CPU 特权等级的 Ring 0 和 Ring 3。
- 内核空间(Ring 0)具有最⾼权限,可以直接访问所有资源;
- ⽤户空间(Ring 3)只能访问受限资源,不能直接访问内存等硬件设备,必须通过系统调⽤陷⼊到内核中,才能访问这些特权资源。

换个⻆度看,也就是说,进程既可以在⽤户空间运⾏,⼜可以在内核空间中运⾏。进程在⽤户空间运⾏时,被称为进程的⽤户态,⽽陷⼊内核空间的时候,被称为进程的内核态。从⽤户态到内核态的转变,需要通过系统调⽤来完成。⽐如,当我们查看⽂件内容时,就需要多次系统调⽤来完成:
- ⾸先调⽤open() 打开⽂件
- 然后调⽤ read() 读取⽂件内容
- 接着调⽤ write() 将内容写到标准输出
- 最后再调⽤ close() 关闭⽂件。
系统调⽤的过程会发⽣ CPU 上下⽂的切换。CPU 寄存器⾥原来⽤户态的指令位置,需要先保存起来。接着,为了执⾏内核态代码,CPU 寄存器需要更新为内核态指令的新位置。最后才是跳转到内核态运⾏内核任务。⽽系统调⽤结束后,CPU寄存器需要恢复原来保存的⽤户态,然后再切换到⽤户空间,继续运⾏进程。所以,⼀次系统调⽤的过程,其实是发⽣了两次 CPU 上下⽂切换。不过,需要注意的是,系统调⽤过程中,并不会涉及到虚拟内存等进程⽤户态的资源,也不会切换进程。这跟我们通常所说的进程上下⽂切换是不⼀样的:
- 进程上下⽂切换,是指从⼀个进程切换到另⼀个进程运⾏。
- 系统调⽤过程中⼀直是同⼀个进程在运⾏。
所以,系统调⽤过程通常称为特权模式切换,⽽不是上下⽂切换。但实际上,系统调⽤过程中,CPU 的上下⽂切换还是⽆法避免的。
进程上下⽂切换跟系统调的区别
进程是由内核来管理和调度的,进程的切换只能发⽣在内核态。所以,进程的上下⽂不仅包括了虚拟内存、栈、全局变量等⽤户空间的资源,还包括了内核堆栈、寄存器等内核空间的状态。因此,进程的上下⽂切换就⽐系统调⽤时多了⼀步:在保存当前进程的内核状态和CPU寄存器之前,需要先把该进程的虚拟内存、栈等保存下来;⽽加载了下⼀进程的内核态后,还需要刷新进程的虚拟内存和⽤户栈。如下图所示,保存上下⽂和恢复上下⽂的过程并不是“免费”的,需要内核在 CPU 上运⾏才能完成。

根据 Tsuna 的测试报告,每次上下⽂切换都需要⼏⼗纳秒到数微秒的 CPU 时间。如果是在进程上下⽂切换次数较多的情况下,很容易导致 CPU 将⼤量时间耗费在寄存器、内核栈以及虚拟内存等资源的保存和恢复上,进⽽⼤⼤缩短了真正运⾏进程的时间。这也正是上⼀节中我们所讲的,导致平均负载升⾼的⼀个重要因素。另外,Linux 通过 TLB(Translation Lookaside Buffer)来管理虚拟内存到物理内存的映射关系。当虚拟内存更新后,TLB 也需要刷新,内存的访问也会随之变慢。特别是在多处理器系统上,缓存是被多个处理器共享的,刷新缓存不仅会影响当前处理器的进程,还会影响共享缓存的其他处理器的进程。
什么时候会切换进程上下⽂
显然,进程切换时才需要切换上下⽂,换句话说,只有在进程调度的时候,才需要切换上下⽂。Linux 为每个 CPU 都维护了⼀个就绪队列,将活跃进程(即正在运⾏和正在等待CPU的进程)按照优先级和等待 CPU 的时间排序,然后选择最需要CPU 的进程,也就是优先级最⾼和等待CPU时间最⻓的进程
来运⾏。那么,进程在什么时候才会被调度到 CPU 上运⾏呢?最容易想到的⼀个时机,就是进程执⾏完终⽌了,它之前使⽤的CPU会释放出来,这个时候再从就绪队列⾥,拿⼀个新的进程过来运⾏。其实还有很多其他场景,也会触发进程调度
- 为了保证所有进程可以得到公平调度,CPU时间被划分为⼀段段的时间⽚,这些时间⽚再被轮流分配给各个进程。这样,当某个进程的时间⽚耗尽了,就会被系统挂起,切换到其它正在等待 CPU 的进程运⾏。
- 进程在系统资源不⾜(⽐如内存不⾜)时,要等到资源满⾜后才可以运⾏,这个时候进程也会被挂起,并由系统调度其他进程运⾏。
- 当进程通过睡眠函数 sleep 这样的⽅法将⾃⼰主动挂起时,⾃然也会重新调度。
- 当有优先级更⾼的进程运⾏时,为了保证⾼优先级进程的运⾏,当前进程会被挂起,由⾼优先级进程来运⾏。
- 发⽣硬件中断时,CPU上的进程会被中断挂起,转⽽执⾏内核中的中断服务程序。
了解这⼏个场景是⾮常有必要的,因为⼀旦出现上下⽂切换的性能问题,它们就是幕后凶⼿。
线程上下⽂切换
说完了进程的上下⽂切换,我们再来看看线程相关的问题。线程与进程最⼤的区别在于:
- 线程是调度的基本单位
- 进程则是资源拥有的基本单位
说⽩了,所谓内核中的任务调度,实际上的调度对象是线程;⽽进程只是给线程提供了虚拟内存、全局变量等资源。所以,对于线程和进程,我们可以这么理解:
- 当进程只有⼀个线程时,可以认为进程就等于线程。
- 当进程拥有多个线程时,这些线程会共享相同的虚拟内存和全局变量等资源。这些资源在上下⽂切换时是不需要修改的。
另外,线程也有⾃⼰的私有数据,⽐如栈和寄存器等,这些在上下⽂切换时也是需要保存的。这么⼀来,线程的上下⽂切换其实就可以分为两种情况:
- 第⼀种, 前后两个线程属于不同进程。此时,因为资源不共享,所以切换过程就跟进程上下⽂切换是⼀样。
- 第⼆种,前后两个线程属于同⼀个进程。此时,因为虚拟内存是共享的,所以在切换时,虚拟内存这些资源就保持不动,只需要切换线程的私有数据、寄存器等不共享的数据。
所以虽然同为上下⽂切换,但同进程内的线程切换,要⽐多进程间的切换消耗更少的资源,⽽这,也正是多线程代替多进程的⼀个优势。
中断上下⽂切换
除了前⾯两种上下⽂切换,还有⼀个场景也会切换 CPU 上下⽂,那就是中断。为了快速响应硬件的事件,中断处理会打断进程的正常调度和执⾏,转⽽调⽤中断处理程序,响应设备事件。⽽在打断其他进程时,就需要将进程当前的状态保存下来,这样在中断结束后,进程仍然可以从原来的状态恢复运⾏。跟进程上下⽂不同,中断上下⽂切换并不涉及到进程的⽤户态。所以,即便中断过程打断了⼀个正处在⽤户态的进程,也不需要保存和恢复这个进程的虚拟内存、全局变量等⽤户态资源。中断上下⽂,其实只包括内核态中断服务程序执⾏所必需的状态,包括CPU 寄存器、内核堆栈、硬件中断参数等。对同⼀个 CPU 来说,中断处理⽐进程拥有更⾼的优先级,所以中断上下⽂切换并不会与进程上下⽂切换同时发⽣。同样道理,由于中断会打断正常进程的调度和执⾏,所以⼤部分中断处理程序都短⼩精悍,以便尽可能快的执⾏结束。另外,跟进程上下⽂切换⼀样,中断上下⽂切换也需要消耗CPU,切换次数过多也会耗费⼤量的 CPU,甚⾄严重降低系统的整体性能。所以,当你发现中断次数过多时,就需要注意去排查它是否会给你的系统带来严重的性能问题。
⼩结
不管是哪种场景导致的上下⽂切换,你都应该知道:
- CPU 上下⽂切换,是保证 Linux 系统正常⼯作的核⼼功能之⼀,⼀般情况下不需要我们特别关注。
- 但过多的上下⽂切换,会把CPU时间消耗在寄存器、内核栈以及虚拟内存等数据的保存和恢复上,从⽽缩短进程真正运⾏的时间,导致系统的整体性能⼤幅下降。
怎么查看系统的上下⽂切换情况
vmstat 是⼀个常⽤的系统性能分析⼯具,主要⽤来分析系统的内存使⽤情况,也常⽤来分析 CPU 上下⽂切换和中断的次数。
# 每隔5秒输出1组数据
root@Test-MySQL:/home/zoom# vmstat 5
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
r b swpd free buff cache si so bi bo in cs us sy id wa st
1 0 858404 353872 278700 6337136 0 0 13 139 4 15 1 0 99 0 0
- cs(context switch)是每秒上下⽂切换的次数。
- in(interrupt)则是每秒中断的次数。
- r(Running or Runnable)是就绪队列的⻓度,也就是正在运⾏和等待CPU的进程数。
- b(Blocked)则是处于不可中断睡眠状态的进程数。
可以看到,这个例⼦中的上下⽂切换次数 cs 是15次,⽽系统中断次数 in 则是4次,⽽就绪队列⻓度r是1,不可中断状态进程数b是0。
vmstat 只给出了系统总体的上下⽂切换情况,要想查看每个进程的详细情况,就需要使⽤我们前⾯提到过的 pidstat 了。给它加上 -w 选项,你就可以查看每个进程上下⽂切换的情况了。
# 每隔5秒输出1组数据
root@Test-MySQL:/home/zoom# pidstat -w 5
Linux 5.15.0-119-generic (Test-MySQL) 09/18/2024 _x86_64_ (4 CPU)
09:15:17 AM UID PID cswch/s nvcswch/s Command
09:15:22 AM 0 14 12.38 0.00 rcu_sched
09:15:22 AM 0 15 0.40 0.00 migration/0
09:15:22 AM 0 21 0.40 0.00 migration/1
09:15:22 AM 0 27 0.40 0.00 migration/2
09:15:22 AM 0 33 0.40 0.00 migration/3
09:15:22 AM 0 44 2.00 0.00 kcompactd0
09:15:22 AM 0 152 22.75 0.00 kworker/2:1H-kblockd
09:15:22 AM 0 198 0.20 0.00 kworker/3:1H-kblockd
09:15:22 AM 0 235 4.79 0.00 irq/16-vmwgfx
09:15:22 AM 0 487 0.60 0.20 jbd2/dm-0-8
09:15:22 AM 0 604 1.20 0.00 multipathd
09:15:22 AM 0 823 10.98 0.00 vmtoolsd
09:15:22 AM 101 923 0.20 0.00 systemd-network
09:15:22 AM 0 965 0.20 0.00 irqbalance
09:15:22 AM 115 994 0.20 0.00 chronyd
09:15:22 AM 0 2332 4.79 0.00 ssm-agent-worke
09:15:22 AM 0 602404 28.94 0.00 kworker/u256:2-events_power_efficient
09:15:22 AM 0 602858 3.79 0.00 kworker/u256:1-ext4-rsv-conversion
09:15:22 AM 1000 602865 0.20 0.00 sshd
09:15:22 AM 0 612155 1.20 0.00 kworker/1:2-events
09:15:22 AM 0 612174 11.78 0.00 kworker/0:0-events
09:15:22 AM 0 613212 4.19 0.00 kworker/3:0-events
09:15:22 AM 0 613242 11.78 0.00 kworker/2:0-events
09:15:22 AM 0 613244 0.20 0.00 pidstat
这个结果中有两列内容是我们的重点关注对象。⼀个是 cswch ,表示每秒⾃愿上下⽂切换(voluntary context switches)的次数,另⼀个则是 nvcswch ,表示每秒⾮⾃愿上下⽂切换(non voluntary context switches)的次数。这两个概念意味着不同的性能问题:
- 所谓⾃愿上下⽂切换,是指进程⽆法获取所需资源,导致的上下⽂切换。⽐如说, I/O、内存等系统资源不⾜时,就会发⽣⾃愿上下⽂切换。
- ⾮⾃愿上下⽂切换,则是指进程由于时间⽚已到等原因,被系统强制调度,进⽽发⽣的上下⽂切换。⽐如说,⼤量进程都在争抢 CPU 时,就容易发⽣⾮⾃愿上下⽂切换。
案例分析
知道了怎么查看这些指标,另⼀个问题⼜来了,上下⽂切换频率是多少次才算正常呢?我们先来看⼀个上下⽂切换的案例。通过案例实战演练分析并找出这个标准。我们将使⽤ sysbench 来模拟系统多线程调度切换的情况。sysbench 是⼀个多线程的基准测试⼯具,⼀般⽤来评估不同系统参数下的数据库负载情况。当然,在这次案例中,我们只把它当成⼀个异常进程来看,作⽤是模拟上下⽂切换过多的问题。
先⽤ vmstat 看⼀下空闲系统的上下⽂切换次数。这⾥你可以看到,现在的上下⽂切换次数 cs 是15,⽽中断次数 in 是4,r和b都是0。因为这会⼉我并没有运⾏其他任务,所以它们就是空闲系统的上下⽂切换次数。
root@Test-MySQL:/home/zoom# vmstat
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 0 858404 364240 278796 6338484 0 0 13 139 4 15 1 0 99 0 0
操作和分析
在第⼀个终端⾥运⾏ sysbench ,模拟系统多线程调度的瓶颈
# 以10个线程运⾏5分钟的基准测试,模拟多线程切换的问题
sysbench --threads=10 --max-time=300 threads run
接着,在第⼆个终端运⾏ vmstat ,观察上下⽂切换情况:
root@Test-MySQL:/home/zoom# vmstat 1
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
r b swpd free buff cache si so bi bo in cs us sy id wa st
6 0 858404 363516 278884 6339308 0 0 0 16 191677 1221954 13 68 18 0 0
4 0 858404 363516 278884 6339316 0 0 0 0 195832 1270357 12 69 19 0 0
CPU上下文切换由15骤然上升到了 120 多万。同时,注意观察其他⼏个指标:
- r 列:就绪队列的⻓度已经到了 6,远远超过了系统 CPU 的个数 2,所以肯定会有⼤量的 CPU 竞争。
- us(user)和 sy(system)列:这两列的CPU 使⽤率加起来上升到了 81%,其中系统 CPU 使⽤率,也就是 sy 列⾼达68%,说明 CPU 主要是被内核占⽤了。
- in 列:中断次数也上升到了1万左右,说明中断处理也是个潜在的问题。
综合这⼏个指标,我们可以知道,系统的就绪队列过⻓,也就是正在运⾏和等待CPU的进程数过多,导致了⼤量的上下⽂切换,⽽上下⽂切换⼜导致了系统 CPU 的占⽤率升⾼。
那么到底是什么进程导致了这些问题呢?我们继续分析,在第三个终端再⽤ pidstat 来看⼀下, CPU 和进程上下⽂切换的情况:
# 每隔1秒输出1组数据(需要 Ctrl+C 才结束)
# -w参数表示输出进程切换指标,⽽-u参数则表示输出CPU使⽤指标
root@MySQL-MGR-01:/home/zoom# pidstat -w -u 1
Linux 5.15.0-107-generic (MySQL-MGR-01) 07/29/2025 _x86_64_ (8 CPU)
11:00:24 PM UID PID %usr %system %guest %wait %CPU CPU Command
11:00:25 PM 0 844 1.96 0.98 0.00 0.00 2.94 3 falcon-sensor-b
11:00:25 PM 1007 355920 0.98 0.98 0.00 0.00 1.96 3 mysqlrouter
11:00:25 PM 1006 459465 0.98 0.00 0.00 0.00 0.98 7 mysqld
11:00:25 PM 0 595898 0.00 0.98 0.00 0.00 0.98 3 kworker/u256:2-events_freezable_power_
11:00:25 PM 0 607116 87.25 409.80 0.00 0.00 497.06 6 sysbench
11:00:25 PM 0 607170 0.98 0.00 0.00 0.00 0.98 0 pidstat
11:00:25 PM 0 607175 2.94 0.98 0.00 0.00 3.92 3 falcon-predict
11:00:24 PM UID PID cswch/s nvcswch/s Command
11:00:25 PM 0 2 0.98 0.00 kthreadd
11:00:25 PM 0 13 0.98 0.00 ksoftirqd/0
11:00:25 PM 0 14 66.67 0.00 rcu_sched
11:00:25 PM 0 21 0.98 0.00 migration/1
11:00:25 PM 0 22 0.98 0.00 ksoftirqd/1
11:00:25 PM 0 28 4.90 0.00 ksoftirqd/2
11:00:25 PM 0 34 6.86 0.00 ksoftirqd/3
11:00:25 PM 0 46 1.96 0.00 ksoftirqd/5
11:00:25 PM 0 58 0.98 0.00 ksoftirqd/7
11:00:25 PM 0 230 0.98 0.00 kworker/4:1H-kblockd
11:00:25 PM 0 406 4.90 0.00 irq/16-vmwgfx
11:00:25 PM 0 516 2.94 0.00 jbd2/dm-0-8
11:00:25 PM 0 631 1.96 0.00 multipathd
11:00:25 PM 0 844 1.96 0.00 falcon-sensor-b
11:00:25 PM 0 175252 10.78 0.00 vmtoolsd
11:00:25 PM 0 268992 0.98 0.00 qualys-cep
11:00:25 PM 0 354689 5.88 0.98 watch
11:00:25 PM 1006 459465 0.98 0.00 mysqld
11:00:25 PM 0 489812 11.76 0.00 kworker/3:1-rcu_par_gp
11:00:25 PM 0 595898 26.47 0.00 kworker/u256:2-events_freezable_power_
11:00:25 PM 0 599305 1.96 0.00 kworker/u256:4-events_unbound
11:00:25 PM 1000 603807 0.98 0.00 sshd
11:00:25 PM 0 603823 2.94 0.00 kworker/3:0-rcu_par_gp
11:00:25 PM 1000 604932 0.98 0.00 sudo
11:00:25 PM 0 605595 0.98 0.00 vmstat
11:00:25 PM 0 605600 18.63 0.00 kworker/3:2-events
11:00:25 PM 0 605602 19.61 0.00 kworker/0:1-events
11:00:25 PM 0 605603 9.80 0.00 kworker/2:0-events
11:00:25 PM 0 605604 0.98 0.00 kworker/2:3-rcu_par_gp
11:00:25 PM 0 605712 1.96 0.00 kworker/7:3-events
11:00:25 PM 0 605713 1.96 0.00 kworker/4:0-events
11:00:25 PM 0 605992 20.59 0.00 kworker/1:1-events
11:00:25 PM 0 606074 1.96 0.00 kworker/5:1-events
11:00:25 PM 0 606578 4.90 0.00 kworker/1:3-rcu_par_gp
11:00:25 PM 0 607170 0.98 2.94 pidstat
11:00:25 PM 0 607175 1.96 5.88 falcon-predict
11:00:25 PM 0 607176 5.88 1.96 kworker/3:3-inet_frag_wq
从pidstat的输出你可以发现,CPU 使⽤率的升⾼果然是 sysbench 导致的,它的 CPU 使⽤率已经达到了 497%。但上下⽂切换则是来⾃其他进程,包括⾃愿上下⽂切换频率最⾼的 rcu_sched等。不过,pidstat 输出的上下⽂切换次数,加起来也就一百多,⽐ vmstat 的 127 万明显⼩了太多。这是怎么
回事呢?难道是⼯具本身出了错吗?别着急,在怀疑⼯具之前,我们再来回想⼀下,前⾯讲到的⼏种上下⽂切换场景。其中有⼀点提到, Linux 调度的基本单位实际上是线程,⽽我们的场景 sysbench 模拟的也是线程的调度问题,那么,是不是 pidstat 忽略了线程的数据呢?通过运⾏ man pidstat ,你
会发现,pidstat 默认显示进程的指标数据,加上 -t 参数后,才会输出线程的指标。所以,我们可以在第三个终端⾥, Ctrl+C 停⽌刚才的 pidstat 命令,再加上 -t 参数,重试⼀下看看:
# 每隔1秒输出⼀组数据(需要 Ctrl+C 才结束)
# -wt 参数表示输出线程的上下⽂切换指标
root@MySQL-MGR-01:/home/zoom# pidstat -wt 1
Linux 5.15.0-107-generic (MySQL-MGR-01) 07/29/2025 _x86_64_ (8 CPU)
11:08:38 PM UID TGID TID cswch/s nvcswch/s Command
11:08:39 PM 0 1 - 0.95 0.00 systemd
11:08:39 PM 0 - 1 0.95 0.00 |__systemd
11:08:39 PM 0 14 - 33.33 0.00 rcu_sched
11:08:39 PM 0 - 14 33.33 0.00 |__rcu_sched
11:08:39 PM 0 28 - 4.76 0.00 ksoftirqd/2
11:08:39 PM 0 - 28 4.76 0.00 |__ksoftirqd/2
11:08:39 PM 0 40 - 1.90 0.00 ksoftirqd/4
11:08:39 PM 0 - 40 1.90 0.00 |__ksoftirqd/4
11:08:39 PM 0 58 - 4.76 0.00 ksoftirqd/7
11:08:39 PM 0 - 58 4.76 0.00 |__ksoftirqd/7
11:08:39 PM 0 423 - 0.95 0.00 kworker/6:1H-kblockd
11:08:39 PM 0 - 423 0.95 0.00 |__kworker/6:1H-kblockd
11:08:39 PM 0 516 - 3.81 0.00 jbd2/dm-0-8
11:08:39 PM 0 - 516 3.81 0.00 |__jbd2/dm-0-8
11:08:39 PM 0 631 - 1.90 0.00 multipathd
11:08:39 PM 0 - 631 1.90 0.00 |__multipathd
11:08:39 PM 0 - 641 0.95 0.00 |__multipathd
11:08:39 PM 0 844 607601 20.95 0.00 (falcon-sensor-b)__workqueue
11:08:39 PM 0 - 1099457 19.05 0.95 |__evdefer/0
11:08:39 PM 0 - 1099458 19.05 0.00 |__evdefer/1
11:08:39 PM 0 - 1099459 19.05 0.00 |__evdefer/2
11:08:39 PM 0 - 1099460 16.19 4.76 |__evdefer/3
11:08:39 PM 0 - 1099463 43.81 0.00 |__wqtimer
11:08:39 PM 0 - 1099468 72.38 0.00 |__falcon-sensor-b
11:08:39 PM 0 - 1099550 11.43 5.71 |__bpfrb/0
11:08:39 PM 0 - 1099551 14.29 0.00 |__bpfrb/1
11:08:39 PM 101 84233 - 0.95 0.00 systemd-network
11:08:39 PM 101 - 84233 0.95 0.00 |__systemd-network
11:08:39 PM 0 175252 - 10.48 0.00 vmtoolsd
11:08:39 PM 0 - 175252 10.48 0.00 |__vmtoolsd
11:08:39 PM 0 - 175263 0.95 0.00 |__HangDetector
11:08:39 PM 0 268992 - 0.95 0.00 qualys-cep
11:08:39 PM 0 - 268992 0.95 0.00 |__qualys-cep
11:08:39 PM 0 354689 - 9.52 0.00 watch
11:08:39 PM 0 - 354689 9.52 0.00 |__watch
11:08:39 PM 1007 355920 355943 49.52 5.71 (mysqlrouter)__MDC Refresh
11:08:39 PM 1006 459465 - 1.90 0.00 mysqld
11:08:39 PM 1006 - 459465 1.90 0.00 |__mysqld
11:08:39 PM 1006 - 459488 1.90 0.00 |__ib_io_ibuf
11:08:39 PM 1006 - 459489 1.90 0.00 |__ib_io_rd-1
11:08:39 PM 1006 - 459490 1.90 0.00 |__ib_io_rd-2
11:08:39 PM 1006 - 459491 1.90 0.00 |__ib_io_rd-3
11:08:39 PM 1006 - 459492 1.90 0.00 |__ib_io_rd-4
11:08:39 PM 1006 - 459493 1.90 0.00 |__ib_io_wr-1
11:08:39 PM 1006 - 459494 1.90 0.00 |__ib_io_wr-2
11:08:39 PM 1006 - 459495 1.90 0.00 |__ib_io_wr-3
11:08:39 PM 1006 - 459496 1.90 0.00 |__ib_io_wr-4
11:08:39 PM 1006 - 459497 1.90 0.00 |__ib_io_wr-5
11:08:39 PM 1006 - 459498 1.90 0.00 |__ib_io_wr-6
11:08:39 PM 1006 - 459499 1.90 0.00 |__ib_io_wr-7
11:08:39 PM 1006 - 459500 1.90 0.00 |__ib_io_wr-8
11:08:39 PM 1006 - 459501 0.95 0.00 |__ib_pg_flush_co
11:08:39 PM 1006 - 459511 0.95 0.00 |__ib_log_checkpt
11:08:39 PM 1006 - 459512 9.52 0.00 |__ib_log_fl_notif
11:08:39 PM 1006 - 459513 10.48 0.00 |__ib_log_flush
11:08:39 PM 1006 - 459514 9.52 0.00 |__ib_log_wr_notif
11:08:39 PM 1006 - 459515 9.52 0.00 |__ib_log_writer
11:08:39 PM 1006 - 459516 100.00 0.00 |__ib_log_files_g
11:08:39 PM 1006 - 459521 0.95 0.00 |__ib_srv_lock_to
11:08:39 PM 1006 - 459522 0.95 0.00 |__ib_srv_err_mon
11:08:39 PM 1006 - 459525 1.90 0.00 |__ib_src_main
11:08:39 PM 1006 - 459526 0.95 0.00 |__ib_dict_stats
11:08:39 PM 1006 - 459530 0.95 0.00 |__xpl_accept-1
11:08:39 PM 1006 - 459543 10.48 0.00 |__ib_clone_gtid
11:08:39 PM 1006 - 459559 3.81 0.00 |__gcs_engine
11:08:39 PM 1006 - 459561 0.95 0.00 |__gr_certif
11:08:39 PM 1006 - 459562 2.86 0.00 |__rpl_rca_sql-0
11:08:39 PM 1006 - 459569 131.43 1.90 |__gcs_xcom
11:08:39 PM 1006 - 459575 0.95 0.00 |__connection
11:08:39 PM 1006 - 459587 5.71 0.00 |__connection
11:08:39 PM 1006 - 459912 5.71 0.00 |__connection
11:08:39 PM 1006 - 461078 2.86 0.00 |__rpl_rca_io-0
11:08:39 PM 1006 - 461079 0.95 0.00 |__rpl_rca_sql-0
11:08:39 PM 0 593910 593914 0.95 0.00 (fwupd)__GUsbEventThread
11:08:39 PM 0 595898 - 7.62 0.00 kworker/u256:2-events_freezable_power_
11:08:39 PM 0 - 595898 7.62 0.00 |__kworker/u256:2-events_freezable_power_
11:08:39 PM 0 605600 - 1.90 0.00 kworker/3:2-mm_percpu_wq
11:08:39 PM 0 - 605600 1.90 0.00 |__kworker/3:2-mm_percpu_wq
11:08:39 PM 0 605602 - 0.95 0.00 kworker/0:1-events
11:08:39 PM 0 - 605602 0.95 0.00 |__kworker/0:1-events
11:08:39 PM 0 605603 - 8.57 0.00 kworker/2:0-events
11:08:39 PM 0 - 605603 8.57 0.00 |__kworker/2:0-events
11:08:39 PM 0 605709 - 0.95 0.00 kworker/6:0-mm_percpu_wq
11:08:39 PM 0 - 605709 0.95 0.00 |__kworker/6:0-mm_percpu_wq
11:08:39 PM 0 605712 - 1.90 0.00 kworker/7:3-mm_percpu_wq
11:08:39 PM 0 - 605712 1.90 0.00 |__kworker/7:3-mm_percpu_wq
11:08:39 PM 0 605713 - 2.86 0.00 kworker/4:0-events
11:08:39 PM 0 - 605713 2.86 0.00 |__kworker/4:0-events
11:08:39 PM 0 605992 - 10.48 0.00 kworker/1:1-mm_percpu_wq
11:08:39 PM 0 - 605992 10.48 0.00 |__kworker/1:1-mm_percpu_wq
11:08:39 PM 0 606074 - 0.95 0.00 kworker/5:1-mm_percpu_wq
11:08:39 PM 0 - 606074 0.95 0.00 |__kworker/5:1-mm_percpu_wq
11:08:39 PM 0 608383 608384 21797.14 15422.86 (sysbench)__sysbench
11:08:39 PM 0 - 608385 19275.24 15637.14 |__sysbench
11:08:39 PM 0 - 608386 22426.67 23550.48 |__sysbench
11:08:39 PM 0 - 608387 20943.81 28220.00 |__sysbench
11:08:39 PM 0 - 608388 21609.52 20965.71 |__sysbench
11:08:39 PM 0 - 608389 20708.57 14800.00 |__sysbench
11:08:39 PM 0 - 608390 20321.90 20271.43 |__sysbench
11:08:39 PM 0 - 608391 19557.14 14730.48 |__sysbench
11:08:39 PM 0 - 608392 22974.29 17402.86 |__sysbench
11:08:39 PM 0 - 608393 20883.81 28958.10 |__sysbench
11:08:39 PM 0 - 608394 20070.48 20327.62 |__sysbench
11:08:39 PM 0 - 608395 20052.38 20308.57 |__sysbench
11:08:39 PM 0 - 608396 19577.14 22288.57 |__sysbench
11:08:39 PM 0 - 608397 18962.86 14022.86 |__sysbench
11:08:39 PM 0 - 608398 18878.10 18056.19 |__sysbench
11:08:39 PM 0 - 608399 22900.00 17213.33 |__sysbench
11:08:39 PM 0 - 608400 22464.76 19083.81 |__sysbench
11:08:39 PM 0 - 608401 22175.24 16828.57 |__sysbench
11:08:39 PM 0 - 608402 20079.05 19260.00 |__sysbench
11:08:39 PM 0 - 608403 20714.29 13056.19 |__sysbench
11:08:39 PM 0 608673 - 0.95 7.62 pidstat
11:08:39 PM 0 - 608673 0.95 7.62 |__pidstat
现在你就能看到了,虽然 sysbench 进程(也就是主线程)的上下⽂切换次数看起来并不多,但它的⼦线程的上下⽂切换次数却有很多。看来,上下⽂切换罪魁祸⾸,还是过多的 sysbench 线程。通过这个案例,你应该也发现了多⼯具、多⽅⾯指标对⽐观测的好处。如果最开始时,我们只⽤了pidstat观测,这些很严重的上下⽂切换线程,压根⼉就发现不了了。
现在再回到最初的问题,每秒上下⽂切换多少次才算正常呢?
这个数值其实取决于系统本身的 CPU 性能。在我看来,如果系统的上下⽂切换次数⽐较稳定,那么从数百到⼀万以内,都应该算是正常的。但当上下⽂切换次数超过⼀万次,或者切换次数出现数量级的增⻓时,就很可能已经出现了性能问题。这时,你还需要根据上下⽂切换的类型,再做具体分析。⽐⽅说:
- ⾃愿上下⽂切换变多了,说明进程都在等待资源,有可能发⽣了 I/O 等其他问题;
- ⾮⾃愿上下⽂切换变多了,说明进程都在被强制调度,也就是都在争抢 CPU,说明 CPU 的确成了瓶颈;
- 中断次数变多了,说明 CPU 被中断处理程序占⽤,还需要通过查看 /proc/interrupts ⽂件来分析具体的中断类型。
⼩结
今天,我通过⼀个sysbench的案例,给你讲了上下⽂切换问题的分析思路。碰到上下⽂切换次数过多的问题时,我们可以借助 vmstat 、 pidstat 和 /proc/interrupts 等⼯具,来辅助排查性能问题的根源。
浙公网安备 33010602011771号