CompletableFuture默认线程池-生产问题

在jdk7中,我们使用线程池可能会使用ExecutorService,默认有四种方式

Executors.newSingleeThreadPool()

Executors.newFixedThreadPool()

Executors.newCacheThreadPool()

Executors.newScheduledThreadPool()

在jdk8中,CompletableFuture腾空出世,它简化了异步任务的写法,提供了很多异步任务的计算方式。

言归正传,现在生产上面出现的问题是,在流量激增的时候,响应很慢,慢慢的所有请求都无妨得到响应结果。

解决方案:

①查看cpu和内存使用率

cpu使用率很低,5%左右,内存使用一直不变,基本排除不是他们的问题。

①.查看gc

看到full gc没有发生,young gc 虽然增加了一点,但是平均响应时间也就是50ms,也算正常了。

② 分析dump堆

下了一个126M的dump包,有一个类占了60m。首先怀疑是不是内存溢出了,但是通过分析,这部分缓存是必需要做的,并且当时dump下来的包确实有点小,数据观测的不够准确。

③.查看栈信息

发现有很多ForkJoinPool.commonPool-worker-线程正在等待,其实使用过CompletableFuture的同学就知道,它里面用的是ForkJoin池来实现的。有想了解线程池源码的可以去读读这篇文章。

为什么这里会有这么多的线程在等待呢?生产上面的服务器使用的是一个两核的服务器,线程池里面只会是1个线程可以执行。为什么是一个,请看源码。

@Test
public void test12() throws InterruptedException { 先做一个单元测试
CompletableFuture.runAsync(()->{ //在此处打断点
System.out.println("111");
});
Thread.sleep(400000);
}
一步一步把代码贴出来,看官看好。

public static CompletableFuture<Void> runAsync(Runnable runnable) { //运行线程的方法
return asyncRunStage(asyncPool, runnable);
}
asyncPool是什么?看一下这个值的设置。

private static final Executor asyncPool = useCommonPool ?
ForkJoinPool.commonPool() : new ThreadPerTaskExecutor();
useCommonPool是什么?

private static final boolean useCommonPool =
(ForkJoinPool.getCommonPoolParallelism() > 1);
public static int getCommonPoolParallelism() {
return commonParallelism;
}
commonParallelism就是那个并发的线程数,它又是怎么来的呢?

static {
// initialize field offsets for CAS etc
。。。。。。
commonMaxSpares = DEFAULT_COMMON_MAX_SPARES;
defaultForkJoinWorkerThreadFactory =
new DefaultForkJoinWorkerThreadFactory();
modifyThreadPermission = new RuntimePermission("modifyThread");

common = java.security.AccessController.doPrivileged
(new java.security.PrivilegedAction<ForkJoinPool>() {
public ForkJoinPool run() { return makeCommonPool(); }}); //重点看makeCommonPool方法
int par = common.config & SMASK; // 获取到par SMASK的值是 65535 也就是1111111111111111 &操作还是common.config本身,看样子还是要看看config是怎么来的
commonParallelism = par > 0 ? par : 1; 想知道par是什么值,这个值为负数默认是1
}
private static ForkJoinPool makeCommonPool() {
int parallelism = -1; //这个并发的线程数默认是-1
ForkJoinWorkerThreadFactory factory = null;
。。。。。。
if (parallelism < 0 &&
(parallelism = Runtime.getRuntime().availableProcessors() - 1) <= 0) //看到了吧,线程池中的处理线程数=电脑核数-1
parallelism = 1;
if (parallelism > MAX_CAP)
parallelism = MAX_CAP;
return new ForkJoinPool(parallelism, factory, handler, LIFO_QUEUE,
"ForkJoinPool.commonPool-worker-"); //指定线程的名字
}
到此分析完毕,使用了逆推法。

由于生产服务器电脑核数较小,而在CompletableFuture代码中又使用了默认的线程池,处理的线程个数是电脑核数-1。这样等有大请求量过来,处理逻辑又很复杂,很多线程都在等待执行,慢慢拖垮了服务器。

调整线程池的大小
《Java并发编程实战》(http://mng.bz/979c)一书中,Brian Goetz和合著者们为线程池大小
的优化提供了不少中肯的建议。这非常重要,如果线程池中线程的数量过多,最终它们会竞争
稀缺的处理器和内存资源,浪费大量的时间在上下文切换上。反之,如果线程的数目过少,正
如你的应用所面临的情况,处理器的一些核可能就无法充分利用。Brian Goetz建议,线程池大
小与处理器的利用率之比可以使用下面的公式进行估算:
N threads = N CPU * U CPU * (1 + W/C)
其中:
❑N CPU 是处理器的核的数目,可以通过 Runtime.getRuntime().availableProce-
ssors() 得到
❑U CPU 是期望的CPU利用率(该值应该介于0和1之间)
❑W/C是等待时间与计算时间的比率

这里太啰嗦了,一般的设置线程池的大小规则是

如果服务是cpu密集型的,设置为电脑的核数

如果服务是io密集型的,设置为电脑的核数*2
---------------------
作者:归海一刀之渔舟唱晚
来源:CSDN
原文:https://blog.csdn.net/u011381576/article/details/80013146
版权声明:本文为博主原创文章,转载请附上博文链接!

posted @ 2019-05-29 15:40  He_quotes  阅读(15661)  评论(0编辑  收藏  举报