springboot利用ThreadPoolTaskExecutor多线程批量插入百万级数据

springboot利用ThreadPoolTaskExecutor多线程批量插入百万级数据_java 多线程批量导入数据-CSDN博客

前言

开发目的:提高百万级数据插入效率。
采取方案:利用ThreadPoolTaskExecutor多线程批量插入。
采用技术:springboot2.1.1+mybatisPlus3.0.6+swagger2.5.0+Lombok1.18.4+postgresql+ThreadPoolTaskExecutor等。

具体实现细节

application-dev.properties添加线程池配置信息

 
  1. # 异步线程配置
  2. # 配置核心线程数
  3. async.executor.thread.core_pool_size = 30
  4. # 配置最大线程数
  5. async.executor.thread.max_pool_size = 30
  6. # 配置队列大小
  7. async.executor.thread.queue_capacity = 99988
  8. # 配置线程池中的线程的名称前缀
  9. async.executor.thread.name.prefix = async-importDB-
 
html

spring容器注入线程池bean对象

 
  1. @Configuration
  2.  
  3. @EnableAsync
  4.  
  5. @Slf4j
  6.  
  7. public class ExecutorConfig {
  8. @Value("${async.executor.thread.core_pool_size}")
  9. private int corePoolSize;
  10. @Value("${async.executor.thread.max_pool_size}")
  11. private int maxPoolSize;
  12. @Value("${async.executor.thread.queue_capacity}")
  13. private int queueCapacity;
  14. @Value("${async.executor.thread.name.prefix}")
  15. private String namePrefix;
  16.  
  17. @Bean(name = "asyncServiceExecutor")
  18. public Executor asyncServiceExecutor() {
  19. log.warn("start asyncServiceExecutor");
  20. //在这里修改
  21. ThreadPoolTaskExecutor executor = new VisiableThreadPoolTaskExecutor();
  22. //配置核心线程数
  23. executor.setCorePoolSize(corePoolSize);
  24. //配置最大线程数
  25. executor.setMaxPoolSize(maxPoolSize);
  26. //配置队列大小
  27. executor.setQueueCapacity(queueCapacity);
  28. //配置线程池中的线程的名称前缀
  29. executor.setThreadNamePrefix(namePrefix);
  30. // rejection-policy:当pool已经达到max size的时候,如何处理新任务
  31. // CALLER_RUNS:不在新线程中执行任务,而是有调用者所在的线程来执行
  32. executor.setRejectedExecutionHandler(new ThreadPoolExecutor.CallerRunsPolicy());
  33. //执行初始化
  34. executor.initialize();
  35. return executor;
  36. }
  37. }
 
java 运行

创建异步线程 业务类

 
  1. @Service
  2.  
  3. @Slf4j
  4.  
  5. public class AsyncServiceImpl implements AsyncService {
  6. @Override
  7. @Async("asyncServiceExecutor")
  8. public void executeAsync(List<LogOutputResult> logOutputResults, LogOutputResultMapper logOutputResultMapper, CountDownLatch countDownLatch) {
  9. try{
  10. log.warn("start executeAsync");
  11. //异步线程要做的事情
  12. logOutputResultMapper.addLogOutputResultBatch(logOutputResults);
  13. log.warn("end executeAsync");
  14. }finally {
  15. countDownLatch.countDown();// 很关键, 无论上面程序是否异常必须执行countDown,否则await无法释放
  16. }
  17. }
  18. }
 
java 运行

创建多线程批量插入具体业务方法

 
  1. @Override
  2. public int testMultiThread() {
  3. List<LogOutputResult> logOutputResults = getTestData();
  4. //测试每100条数据插入开一个线程
  5. List<List<LogOutputResult>> lists = ConvertHandler.splitList(logOutputResults, 100);
  6. CountDownLatch countDownLatch = new CountDownLatch(lists.size());
  7. for (List<LogOutputResult> listSub:lists) {
  8. asyncService.executeAsync(listSub, logOutputResultMapper,countDownLatch);
  9. }
  10. try {
  11. countDownLatch.await(); //保证之前的所有的线程都执行完成,才会走下面的;
  12. // 这样就可以在下面拿到所有线程执行完的集合结果
  13. } catch (Exception e) {
  14. log.error("阻塞异常:"+e.getMessage());
  15. }
  16. return logOutputResults.size();
  17. }
 
html

模拟2000003 条数据进行测试

 

多线程 测试 2000003  耗时如下:耗时1.67分钟

 

本次开启30个线程,截图如下:

 

单线程测试2000003  耗时如下:耗时5.75分钟

 

检查多线程入库的数据,检查是否存在重复入库的问题:

根据id分组,查看是否有id重复的数据,通过sql语句检查,没有发现重复入库的问题

 

检查数据完整性: 通过sql语句查询,多线程录入数据完整

测试结果

不同线程数测试:

 

总结

通过以上测试案列,同样是导入2000003  条数据,多线程耗时1.67分钟,单线程耗时5.75分钟。通过对不同线程数的测试,发现不是线程数越多越好,具体多少合适,网上有一个不成文的算法
CPU核心数量*2 +2 个线程。
附:测试电脑配置

posted @ 2025-09-30 15:47  CharyGao  阅读(9)  评论(0)    收藏  举报