公司有个匿名聊天的常规H5界面,运营向做一次 50W 的推送,为了能配合她的计划,需要对该界面做一次压力测试。

一、JMeter

  压测工具选择了JMeter,这是Apache的一个项目,它是用Java编写的,所以需要先安装Java的SDK,选择当前的操作系统。

   

  随后到JMeter官网下载应用程序,选择 Binaries 中的压缩包

  

  在终端中进入解压后的 bin 目录,通过 sh jmeter 命令来启动 JMeter。 

  

  Don't use GUI mode for load testing:这段提示信息是不要在GUI界面进行压力测试,GUI界面仅仅用于调试。

  程序会自动打开 JMeter 的界面,如果在 选项 -》 选择语言 -》中文,那么有可能乱码。

  

  只需选择 选项 -》 外观 -》System 或 Metal,就能避免乱码,网上有许多使用教程可以参考。

  当测试计划都编写完后,保存,然后在终端输入命令,就能开始压测了,其中目录相对于bin,couples.jmx 是测试计划,webreport是统计信息。

sh jmeter -n -t ../demo/couples.jmx -l ../demo/result/couples.txt -e -o ../demo/webreport

  

二、实践

  在正式开始压测之前,也浏览了许多网络资料作为知识储备。

  首先需要理解Socket(套接字)的概念,它是对TCP/IP协议的封装,本身并不是协议,而是一个调用接口,Socket连接就是长连接。

  在创建Socket连接时,可以指定传输层协议,通常选择的是TCP协议,所以一旦通信双方建立连接后就开始互发数据,直至连接断开。

  而每个TCP都要占用一个唯一的本地端口号,但是每个端口并不会禁止TCP并发。

  然后去网上搜索了百万长连接可能遇到的瓶颈,包括TCP连接数、内存大小、文件句柄打开数等,例如:

  每个TCP连接都要占用一个文件描述符,而操作系统对可以打开的最大文件数的限制将会成为瓶颈。

  如果对本地端口号范围有限制(例如在1024~32768),当端口号占满时,TCP就会连接失败。

  网上给出了很多解决方案,大部分都是修改操作系统的各类参数。

1)开始测试

  上来就干,线程数直接填200以上。

  

  红框中的字段含义如下所示:

  • Label: 请求名称
  • #Smaples: 请求计数,其中108.4是TPS(每秒处理的事务数)
  • Average: 请求响应平均耗时
  • Min: 请求响应最小耗时
  • Max: 请求响应最大耗时
  • Error %: 请求错误率
  • Active:线程数(图中并未显示)

  查看报告页面,出现了多个错误,在网上查资源,做了些简单地挣扎,并没有得到好的解决办法。

Non HTTP response code: java.net.SocketException/Non HTTP response message: Connection reset
Non HTTP response code: javax.net.ssl.SSLHandshakeException/Non HTTP response message: Remote host terminated the handshake
Non HTTP response code: javax.net.ssl.SSLException/Non HTTP response message: java.net.SocketException: Connection reset
Non HTTP response code: java.net.SocketException/Non HTTP response message: Malformed reply from SOCKS server

  后面想想还是根据当前实际情况来吧,运营需要50W的推送,两小时内完成,平均每秒推送70条,将这个数据作为当前每秒的线程数,模拟后一切正常。

  注意,线程数和服务器的并发量不能完全画等号。

  

  然后让4000个线程1分钟完成请求,配置Ramp-Up时间为60S,成功率是99.93%。

  图中的Ramp-Up时间指所有线程在多长时间(单位秒)内全部启动。例如500个线程10S,那么每秒启动 500/10=50 个线程,不写就是所有线程在开启场景后立即启动。

  再让5000的线程维持2分钟,配置Ramp-Up时间为120S,报无法创建新的本机线程的错误。 

Uncaught Exception java.lang.OutOfMemoryError: unable to create new native thread in thread Thread[StandardJMeterEngine,5,main]

  为了解决此问题,期间走了很多误区,网上的很多资料都是说修改 jmeter.sh文件,像下面这样,但是改来改去仍然会报那错。

set HEAP=-server -Xms768m -Xmx768m -Xss128k 
set NEW=-XX:NewSize=1024m -XX:MaxNewSize=1024m

  或者是用命令来修改本机的一些参数,像下面这样,但仍然无济于事。 

launchctl limit maxfiles 1000000 1000000
sysctl -w kern.maxfiles=100000
sysctl -w kern.maxfilesperproc=100000

  后面看到篇文章说在macOS中,对单个进程能够创建的线程数量是有限制的,下面的命令可以读取最大值,例如本机是4096,但该参数是只读的,无法修改。

sysctl kern.num_taskthreads

  于是马上就改变策略,一番查找下来,了解到JMeter还提供了一种远程模式。

2)远程模式

  既然一台机器的线程数有限,那可以通过多台机器来模拟更多的虚拟用户,JMeter有一种远程模式可以实现这个方案。

  首先需要在bin目录中的 jmeter.properties 文件修改remote_hosts参数,127.0.0.1改成本机地址,如下所示。

remote_hosts=192.168.10.10,192.168.10.46

  然后通过bin目录的create-rmi-keystore.sh生成rmi_keystore.jks,windows的可以直接运行create-rmi-keystore.bat,mac需要运行create-rmi-keystore.sh文件,会问你一堆问题。 

sh create-rmi-keystore.sh

  并且需要将rmi_keystore.jks文件放置到从机的bin目录中。此时从机在开启sh jmeter-server时会报一个错误。

An error occurred: Cannot start. MacBook-Pro.local is a loopback address.

  修改jmeter-server,取消RMI_HOST_DEF的注释项,并将IP地址改成当前机器的。

RMI_HOST_DEF=-Djava.rmi.server.hostname=192.168.10.46

  一切准备就绪后,就可以使用压测命令了,与之前不同的是,需要加一个 -r 参数,其余照旧。

sh jmeter -n -t ../demo/couples.jmx -r -l ../demo/result/couples.txt -e -o ../demo/webreport

3)继续测试

  这次线程数量加到4000,加上从机,总共是1.2W个线程,Ramp-Up时间为60S,下面是结果图。

  

  其中Throughput一列表示的是每秒处理的事务数(TPS),在此处也就是服务器的并发量。统计出21个错误,占比是0.17%。

Non HTTP response code: javax.net.ssl.SSLException/Non HTTP response message: Connection reset

  进到测试服务器,输入 ulimit -a 命令,open files 的数量有100多W,所以不会出现那种无法打开文件的错误。

   

  再详细的分析暂时不会,还得先去系统的学习一下,然后再回来补充。

三、学习性能测试

   为了学习性能测试,特地在网上找了个专栏《性能测试实战30讲》,顺便记录了些基础概念。

1)性能场景

  基准性能场景,单交易容量,将每一个业务压到最大TPS。

  容量性能场景,将所有业务根据比例加到一个场景中,在数据、软硬件、监控等的配合下,分析瓶颈并调优。

  稳定性性能场景,核心就是时长,在长时间的运行之下,观察系统的性能表现。

  异常性能场景,宕主机、宕应用、宕网卡、宕容器、宕缓存、宕队列等。

2)指标

  • RT:响应时间
  • TPS:每秒事务数
  • QPS:每秒SQL数
  • RPS:每秒请求数
  • Throughout:吞吐量

  所有相关的人都要知道TPS中的T是如何定义的。如果是接口层性能测试,T直接定义为接口级;如果是业务级性能测试,T直接定义为每个业务步骤和完整的业务流。

  对一个系统来说,如果仅在改变压力策略(其他的条件比如环境、数据、软硬件配置等都不变)的情况下,系统的最大 TPS 上限是固定的

    TPS = (1000ms(1秒)/ RT(单位ms))x 压力线程数

  对于压力工具来说,只要不报错,我们就关心 TPS 和响应时间就可以了,因为 TPS 反应出来的是和服务器对应的处理能力,至少压力线程数是多少,并不关键。

3)学习期

  性能工具学习期:自己有明确的疑问。通常所说的并发都是指服务端的并发,而不是指压力机上的并发线程数,因为服务端的并发才是服务器的处理能力。

  性能场景学习期:如何做一个合理的性能测试,调整业务比例,参数化数据的提取逻辑。

  性能分析学习期:面对问题应该是我想要看什么数据,而不是把数据都给我看看。

  通过你的测试和分析优化之后,性能提升了多少?

  通过你的测试和分析优化之后,节省了多少成本?

4)参数化

  参数化测试数据的疑问:

  • 参数化数据应该用多少数据量?
  • 参数化数据从哪里来?
  • 参数多与少的选择对系统压力有什么影响?
  • 参数化数据在数据库中的直方图是否均衡?

  在性能场景中,我们需要根据实际的业务场景来分析需要用到什么样的数据,以便计算数据量。

  参数化时需要确保数据来源以保证数据的有效性,千万不能随便造数据。这类数据应该满足两个条件:

  • 要满足生产环境中数据的分布;
  • 要满足性能场景中数据量的要求。

四、Websocket Bench

  在这次的压测中,想要测试2000人在线,并且同时聊天,服务器能否完美处理。

  如果要访问页面模拟用户的行为,会比较麻烦,因为在聊天前需要做两步操作,第一步是确认协议,第二步是选择匹配范围,第三步才开始匹配用户开始聊天。

  若要两个用户匹配成功,首先需要都在线,其次是经纬度计算后的范围满足之前的配置。

  为了避免那么多繁琐的前置场景,我决定直接对socket进行压测,于是想到了Websocket Bench

  它支持Socket.IO、Engine.IO、Primus等实时通信库的方法,经过简单的文档查阅后,开始编码,直接将官方demo复制修改。

module.exports = {
    /**
     * Before connection (optional, just for faye)
     * @param {client} client connection
     */
    beforeConnect : function(client) {
    },

    /**
     * On client connection (required)
     * @param {client} client connection
     * @param {done} callback function(err) {}
     */
    onConnect : function(client, done) {
      // Socket.io client
      client.emit('say', 100, {
        id: 111,
        avatar: 'http://www.pwstrick.com',
        userId: 123,
        msg: Date.now().toString(36) + Math.random().toString(36).substr(2),
        msgType: 'text'
      }, (msg) => {
        console.log(msg);
      });
      console.count();
      done();
    },

    /**
     * Send a message (required)
     * @param {client} client connection
     * @param {done} callback function(err) {}
     */
    sendMessage : function(client, done) {
      done();
    },

    /**
     * WAMP connection options
     */
    options : {
      // realm: 'chat'
    }
 };

  启动命令,-a 是指持久化连接总数 ,-c 是指每秒并发连接数 ,-g 是指要执行的JS文件,-k 保持活动连接,-o 是指日志的输出文件。

websocket-bench -a 2000 -c 2000 -g chat.js -k test-web-api.rela.me/chat -o opt.log

  开始运行后,并没有我设想的那样,实现2000人并发,TPS最多也就80多,到一个时间后,就持续变少。下图来自阿里云的日志,每次发消息我都会记录一条日志。

   

  我对上面的 -a 和 -c 的理解还有误差,不过也有可能是我本机限制了并发,之后就让QA在服务器上调试了。

 

 

参考资料:

淘宝技术分享 HTTP长连接200万尝试及调优

如何实现单服务器300万个长连接的?

100万并发连接服务器笔记之1M并发连接目标达成

websocket异步高并发_websocket长连接压力测试踩过的坑

记一次Socket.IO长链服务的性能压测

websoket.io 高并发实现

Linux下实现高并发socket最大连接数的配置方法

Socket和Http通信原理

单台机器100w连接压测实战

Mac OS下Jmeter的入门操作

高并发TCP连接数目问题

JMeter中的HTTPS套接字错误

ulimit的坑,让我的故障一波又一波

jmeter使用总结

修改mac单应用创建线程的限制

JMeter 七:远程测试

 posted on 2021-11-08 10:06  咖啡机(K.F.J)  阅读(982)  评论(0编辑  收藏  举报