一次load飙高排查过程

一、外在表现

有时java应用的load很高,影响系统稳定性,这时候就要进行问题排查,找出影响系统稳定性的因素。如果是进程级的应用,如Nginx、Apache等都还比较容易排查,但如果是JVM中的某个线程导致的,估计有人就要开始抓瞎了。

 

二、排查过程

 

1.ps -ef | grep java | grep -v grep

找出Java进程ID,得到进程ID为21711

 

2.top -Hp 21711

找出该进程内最耗费CPU的线程,TIME列就是各个Java线程耗费的CPU时间,CPU时间最长的是线程ID为21742的线程,用printf "%x\n" 21742,得到21742的十六进制值为54ee,下面会用到。

 

3.jstack 21711 | grep 54ee

它用来输出进程21711的堆栈信息,然后根据线程ID的十六进制值grep。有时这一步并不能从整体上查看性能消耗在哪, 要用jstack 21711 > jstack.txt查看整体情况。

 

三、站在巨人的肩膀

 

网上有牛人写了一个脚本能自动帮我们大致定位到现场导致LOAD飙升的JVM线程,脚本大概如下

#!/bin/ksh

 

# write by : oldmanpushcart@gmail.com

# date : 2014-01-16

# version : 0.07

 

typeset top=${1:-10}

typeset pid=${2:-$(pgrep -u $USER java)}

typeset tmp_file=/tmp/java_${pid}_$$.trace

 

$JAVA_HOME/bin/jstack $pid > $tmp_file

ps H -eo user,pid,ppid,tid,time,%cpu --sort=%cpu --no-headers\

| tail -$top\

| awk -v "pid=$pid" '$2==pid{print $4"\t"$6}'\

| while read line;

do

typeset nid=$(echo "$line"|awk '{printf("0x%x",$1)}')

typeset cpu=$(echo "$line"|awk '{print $2}')

awk -v "cpu=$cpu" '/nid='"$nid"'/,/^$/{print $0"\t"(isF++?"":"cpu="cpu"%");}' $tmp_file

done

 

rm -f $tmp_file

 

现在我们就来拆解其中的原理,以及说明下类似脚本的适用范围。

 

步骤1:dump当前JVM线程,保存现场

$JAVA_HOME/bin/jstack $pid > $tmp_file

​保存现场是相当的重要,因为问题转瞬之间就会从手中溜走(但其实LOAD的统计机制也决定了,事实也并不是那么严格)

 

​步骤2:找到当前CPU使用占比高的线程

ps H -eo user,pid,ppid,tid,time,%cpu --sort=%cpu

列说明

%CPU:线程使用CPU占比(这里要提醒下各位,这个CPU占比是通过/proc计算得到,存在时间差)

 

步骤3:合并相关信息

我们需要关注的大概是3列:PID、TID、%CPU,我们通过PS拿到了TID,可以通过进制换算10-16得到jstack出来的JVM线程号​

typeset nid="0x"$(echo "$line"|awk '{print $1}'|xargs -I{} echo "obase=16;{}"|bc|tr 'A-Z' 'a-z')

最后再将ps和jstack出来的信息进行一个匹配与合并。终于,得到我们最想要的信息

 

适用范围说明

看似这个脚本很牛X的样子,能直接定位到最耗费CPU的线程,开发再也不用担心找不到线上最有问题的代码~但,且慢,姑且注意下输出的结果,State: WAITING 这是这个啥节奏~

这是因为ps中的%CPU数据统计来自于/proc/stat,这个份数据并非实时的,而是取决于OS对其更新的频率,一般为1S。所以你看到的数据统计会和jstack出来的信息不一致也就是这个原因~但这份信息对持续LOAD由少数几个线程导致的问题排查还是非常给力的,因为这些固定少数几个线程会持续消耗CPU的资源,即使存在时间差,反正也都是这几个线程所导致。

 

参考:https://yq.aliyun.com/articles/55

posted @ 2017-02-19 11:14  john8169  阅读(236)  评论(0编辑  收藏  举报