浅谈负载均衡

第一次从Typora写完复制过来,明明在Typora里面排版异常美观,不知为何到博客园上字体大小全部变化了,见谅!

负载均衡

参考:《CDN技术详解》

1.概念

负载均衡(Load Balance),是一种计算机技术,意思是将负载(工作任务,访问请求)进行平衡、分摊到多个操作单元(服务器,组件)上进行执行。是解决高性能,单点故障(高可用),扩展性(水平伸缩)的终极解决方案。负载平衡服务通常可以由专用软件(nginx、Lvs等)和硬件(F5负载均衡器)来完成。

2.负载均衡原理

系统的扩展可以分为纵向(垂直)扩展和横向(水平)扩展。

  • 纵向扩展:从单机角度出发,通过增加硬件处理能力,例如CPU处理能力、内存容量、磁盘等,目的是实现服务器处理能力的提升,但缺点是不能满足大型分布式系统或者网站大流量、高并发、海量数据的问题。
  • 横向扩展:通过添加机器数量来满足大型网站服务的处理能力。例如一台机器不能满足需求,我就增加两台或者多台机器,共同承担访问压力,这就是典型的集群和负载均衡的原理,

集群和负载均衡的架构图如下:

  • 应用集群:将同一应用部署到多台机器上,组成处理集群,接收负载均衡设备分发的请求,进行处理,并返回相应数据。
  • 负载均衡设备:将用户访问的请求,根据负载均衡算法,分发到集群中的一台处理服务器。

负载均衡的作用:

  • 解决并发压力,提高应用处理性能(增加吞吐量,加强网络处理能力);
  • 提供故障转移,实现高可用;
  • 通过添加或减少服务器数量,提供网站伸缩性(扩展性);
  • 安全防护;(负载均衡设备上做一些过滤,黑白名单等处理)

3.负载均衡的实现

根据实现技术不同,可分为DNS域名解析负载均衡,HTTP重定向负载均衡,IP负载均衡,链路层负载均衡,反向代理负载均衡等。

3.1 DNS域名解析负载均衡

原理

最早的负载均衡技术,在DNS服务器内配置多个记录,这些记录对应服务器构成集群,每次域名解析请求都会根据负载均衡算法计算一个不同的IP地址返回,这样就实现了负载均衡。

优点
  • 使用简单:载均衡工作,交给DNS服务器处理,省掉了负载均衡服务器维护的麻烦
  • 提高性能:可以支持基于地址的域名解析,解析成距离用户最近的服务器地址,可以加快访问速度,改善性能;
缺点
  • 可用性差:DNS解析是多级解析,新增/修改DNS后,解析时间较长;解析过程中,用户访问网站将失败;
  • 扩展性差:DNS负载均衡的控制权在域名商那里,无法对其做更多的改善和扩展;
适用场景

所以,结合DNS域名解析负载均衡的原理,大型网站一般都会把DNS负载均衡作为第一级负载均衡手段,然后再在内部做第二级负载均衡。

3.2 HTTP重定向负载均衡

原理

HTTP重定向负载均衡服务器是一台普通的应用服务器,其唯一的功能就是根据用户的HTTP请求以及负载均衡算法计算出一台真实的服务器地址,并将真实的服务器地址写入HTTP重定向响应中(响应状态码302)返回给浏览器,然后浏览器再自动请求真实的服务器。

优点

简单易实现

缺点
  • 缺点是浏览器需要每次请求两次服务器才能拿完成一次访问,性能较差;
  • 重定向服务器自身的处理能力有可能成为瓶颈
适用场景

综上,此方案在实际中并不经常使用。

3.3 IP负载均衡

原理

在网络层结合负载均衡算法通过修改请求目标IP地址进行负载均衡。

用户请求数据包,到达负载均衡服务器后,负载均衡服务器在操作系统内核进程获取网络数据包,根据负载均衡算法得到一台真实服务器地址,然后将请求目的地址修改为获得的真实ip地址,整个过程不需要经过用户进程处理。真实服务器处理完成后,响应数据包回到负载均衡服务器,负载均衡服务器再将数据包源地址修改为自身的ip地址,发送给用户浏览器。

整个流程的关键在于真实WEB服务器响应数据包如何返回给负载均衡服务器

  • 一种是负载均衡服务器在修改目的IP地址的同时修改源地址,将数据包源地址改为自身的IP,即源地址转换(SNAT)
  • 另一种方案是将负载均衡服务器同时作为真实物理服务器的网关服务器,这样所有的数据都会到达负载均衡服务器。
优点

IP负载均衡在内核进程完成数据分发,处理性能更好

缺点

由于所有请求响应的数据包都需要经过负载均衡服务器,因此负载均衡的网卡带宽成为系统的瓶颈

3.4 数据链路层负载均衡

原理

数据链路层负载均衡是指在通信协议的数据链路层修改mac地址进行负载均衡。

这种数据传输方式又称作三角传输模式,即数据在分发过程中不修改IP地址,只根据负载均衡算法修改目的地的mac地址,然后通过配置真实物理服务器集群所有机器虚拟IP和负载均衡服务器IP地址一样,从而达到依靠mac地址进行传输,这种负载均衡方式又称为直接路由方式(DR).

在上图中,用户请求到达负载均衡服务器后,负载均衡服务器将请求数据的目的mac地址修改为真实WEB服务器的mac地址,并不修改数据包目标IP地址,因此数据可以正常到达目标WEB服务器,该服务器在处理完数据后可以不经过负载均衡服务器直接到达用户浏览器。

优点

使用三角传输模式的链路层负载均衡是目前大型网站所使用的最广的一种负载均衡手段。四层负载均衡软件LVS其中的DR工作模式就是基于数据链路层负载均衡原理实现的。

缺点

配置可能复杂一点。

3.5 反向代理负载均衡

原理

传统代理服务器位于浏览器一端,代理浏览器将HTTP请求发送到互联网上(正向代理)。而反向代理服务器则位于网站机房一侧,代理网站web服务器接收http请求。反向代理服务器也可以实现负载均衡的功能,典型的反向代理服务就是nginx。

除此之外,代理服务器也可以配置缓存加速web请求。当用户第一次访问静态内容的时候,静态内存就被缓存在反向代理服务器上,这样当其他用户访问该静态内容时,就可以直接从反向代理服务器返回,加速web请求响应速度,减轻web服务器负载压力。

由于反向代理服务器转发请求在HTTP协议层面,因此也叫应用层负载均衡。优点是部署简单,缺点是可能成为系统的瓶颈。

4.负载均衡的算法

负载均衡算法的目标是将用户请求和相关流量高效、正确地分发到处于正常工作状态的服务器上,使得各台服务器尽可能地保持负载均衡。

负载均衡算法可以分为静态算法动态算法两大类。

(1)静态算法是指按照预先设定的策略进行分发,而不考虑当前服务器的实际负载情况,其实现比较简单快捷。典型的静态算法包括轮询加权轮询随机加权随机基于源IP的Hash基于源IP端口的Hash基于目的IP的Hash等;

(2)动态算法能够根据各服务器实际运行中的负载情况进行连接分发,具有更优的均衡效果,典型的动态算法包括基于最小连接基于加权最小连接最小响应时间等。

4.1 静态负载均衡算法

  • 轮询(Round Robin) :依次将请求分发到不同的服务器上,使得各台服务器平均分担用户的连接请求,该算法适用于集群中各服务器性能相当而无明显优劣差异的场景。
  • 加权轮询(Weighted Round Robin) :依次将请求分发到不同的服务器上,其中权值大的分配较多请求,权值小的分配较少请求,该算法利用权值标识服务器间的性能差异,适用于各服务器间性能不一的场景。
  • 随机(Random) :随机地将请求分发到不同的服务器上,从统计学角度看,调度的结果为各台服务器平均分担用户的连接请求,该算法适用于集群中各服务器性能相当而无明显优劣差异的场景。
  • 基于源IP的Hash ( Source IP Hashing) :通过一个Hash函数将来自同一个源IP地址的请求映射到一台服务器上,该算法适用于需要保证来自同一用户的请求被分发到同一台服务器的场景。
  • 基于源IP端口的Hash ( Source IP and Source Port Hashing) :通过一个Hash函数将来自同一个源IP地址和源端口号的请求映射到一台服务器上,该算法适用于需要保证来自同一用户同一业务的请求被分发到同一台服务器的场景。
  • 基于目的IP的Hash (Destination IP Hashing) :通过一个Hash函数将去往同一个目的IP地址的请求映射到一台服务器上,该算法适用于需要保证到达同一目的地的请求被分发到同一台服务器的场景。

4.2 动态负载均衡算法

  • 最小连接(Least Conection) :根据当前各台服务器的连接数估算服务器的负载情况,把新的连接分配给连接数最小的服务器。该算法能够将连接保持时长差异较大的用户请求合理地分发到各台服务器上,适用于集群中各服务器性能相当、无明显优劣差异,而且不同用户发起的连接保持时长差异较大的场景。
  • 加权最小连接(Weighted Least Connection) :调度新连接时尽可能使得服务器上已经建立的活动连接数和服务器权值成-定比例,其中权值标识了服务器间的性能差异,该算法适用于集群中各服务器性能存在差异,而且不同用户发起的连接保持时长差异较大的场景。
  • 最小响应时间(Least Response Time) :调度新连接时尽可能选择对用户请求响应时间短的服务器,该算法适用于用户请求对服务器响应时间要求较高的场景。

4.3 总结

不同的调度算法所实现的负载均衡效果不尽相同,可以根据实际应用场景的需求,选用不同的算法。
(1)例如在Web服务器集群可以采用轮询算法获得较高的访问响应,
(2)FTP服务器集群可以采用最小连接算法减轻单台服务器的压力,
(3)报税等专用业务集群可以采用基于源IP端口的Hash算法确保用户访问的持续性。
除了上述传统的分发算法外,近年来$针对内容分析的分发算法$越来越受到负载均衡设备厂商的重视。举个例子来说,对于Web网站服务器集群而言,其使用的负载均衡设备不仅需要能够根据IP地址和默认80端口分发HTTP流量,
还需要根据HTTP报文头或内容分配到指定服务器。这类设备可以对HTTP报文进行分析,获得Accept-Encoding、Accept-language、 Host、 Request-Method、URL-file、URL-function、User-agent 等信息,并以此为依据向合适的服务器分发请求。

5.服务器负载均衡的分类

服务器负载均衡常见的可以分为基于四层交换技术的负载均衡、基于七层交换技术的负载均衡

5.1 基于四层交换技术的负载均衡

(1) 概念

基于四层交换技术的负载均衡的主要工作是转发,它在接收到客户端的报文以后主要通过修改报文中的目标地址,再加上负载均衡算法,决定最终选择的真实物理服务器。

(2) 两种常见的实现方式

四层负载均衡的实现主要有NAT方式以及DR方式,它们适用于不同的应用场景。

具有代表意义的产品:LVS(开源软件),F5(硬件)

(3) 优缺点
  • 优点:性能高、支持各种网络协议
  • 缺点:对网络依赖较大,负载智能化方面没有7层负载好(比如不支持对url个性化负载),F5硬件性能很高但成本也高需要人民币几十万,对于小公司就望而却步了。
(4) 四层负载均衡-NAT方式

网络地址转换( NAT, Network Address Translation)属于广域网接入技术,它是一种将私有(保留)地址转化为合法IP地址的转换技术,被广泛应用于各种类型互联网接入方式和各种类型的网络中。

采用NAT方式实现的L4服务器负载均衡,后端服务器可以位于不同的物理位置和不同的局域网内。负载均衡设备在分发服务请求时,需要进行虚拟IP地址和目的IP地址转换,再通过路由将报文转发给具有相应目的地址的服务器。NAT方式L4负载均衡的典型组网如图所示。

工作流程如下:

这种方法使用了网络地址转换(NAT)技术实现L4服务器负载均衡,它具有组网灵活,适用于多种组网类型的特征。该方法对服务器没有额外的要求,不需要修改服务器的配置。

(5) 四层负载均衡-DR方式

​ DR (Direct Routing) 是另一种L4服务器负载均衡的实现方式。与NAT方式的L4负载均衡不同, DR方式只有客户端发出的服务请求报文需要通过负载均衡设备,而服务器发出的响应报文则无须通过,这样能够有效减少负载均衡设备的负载压力,避免负载均衡设备成为系统性能瓶颈。DR方式下,负载均衡设备在分发服务器请求时,不采用改变请求目的IP地址的方法,而是将报文的目的MAC地址替换为服务器的MAC地址,然后直接将报文转发给服务器。DR方式L4负载均衡的典型组网如图所示:

从上图中可以看出,DR方式L4服务器负载均衡的实现方案与NAT方式类似,区别是

  • 负载均衡设备是以旁挂形式与交换机相连接的
  • 集群中每台处理用户请求的服务器都拥有单独的虚拟IP地址。

四层服务器负载均衡DR方式的特点如下:

  • 必须为负载均衡设备和真实服务器同时配置相同的虚拟IP地址,但是要求真实服务器的虚拟IP地址不能响应ARP请求,只能由负载均衡设备响应(因为两者处于一个子网中,所以真实服务器是可以响应ARP请求的)。
  • 用于响应服务请求的真实服务器上除了虚拟IP地址,还需要配置一个真实的IP地址用于和负载均衡设备通信,同时负载均衡设备要和真实服务器同处于一个二层网络内(同一个子网)(用于获取mac地址)。
  • 因为服务器的虚拟IP地址不能响应ARP请求,所以从客户端发送给虚拟IP地址的报文将由负载均衡设备接收,负载均衡设备再将其分发给相应的真实服务器,而从真实服务器发送给客户端的响应报文则直接由交换机返回。

相应的工作流程如下图所示。

该方法只要求客户端到服务器的单方向请求报文经过负载均衡设备,负载均衡设备负担较小,不易成为瓶颈,具有更高的处理性能。

5.2 基于七层交换技术的负载均衡

(1) 概念

​ L4服务器负载均衡在截取数据流以后,对数据包的检查和分析仅局限于IP报文头部和TCP/UDP报文头部,而并不关心TCP/UDP数据包的有效载荷信息。而L7服务器负载均衡则要求负载均衡设备除了支持基于四层的负载均衡以外,还要解析数据包中四层以上的信息,即应用层的信息,例如解析HTTP内容, 从而在数据包中提取出HTTP URL或者Cookie信息,用来作为负载均衡的依据。

它的主要特点在于:

  • 通过报文中的有意义的应用层内容以及负载均衡算法,决定最终选择的真实物理服务器。
  • 七层负载均衡服务器起了一个代理服务器的作用

与4层服务器负载均衡相比,优点在于

  • 能够根据数据包内容(例如判断数据包是图像文件、压缩文件或者多媒体文件等)把数据流量引向能够处理相应内容的服务器,提高系统可管理性和灵活性。
  • 能够根据连接请求的数据类型(例如根据URL判定用户发来的请求是和普通文本、图像等静态文档相关,还是和ASP、CGI等动态文档相关),把其引向相应的服务器处理,在提高系统性能的同时有助于改善安全性。
(2) 工作流程

从上图可以看出七层负载均衡服务器起了一个代理服务器的作用,client要访问webserver要先与七层负载设备进行三次握手后建立TCP连接,把要访问的报文信息发送给七层负载均衡;然后七层负载均衡再根据设置的均衡规则选择特定的webserver,然后通过三次握手与此台webserver建立TCP连接,然后webserver把需要的数据发送给七层负载均衡设备,负载均衡设备再把数据发送给client。

具有代表意义的产品:nginx(软件)

Nginx的介绍
Nginx (读作engine-x) 是一款高性能的HTTP和反向代理服务器,同时它也是一个IMAP/POP3/SMTP 代理服务器。Nginx具有非常优越的性能,特别是极高的并发处理能力,因此获得了众多互联网网站的青睐。Nginx实现了完善的HTTP服务器功能,在实际的网站部署中,它经常被用于处理网络协议栈七层的负载均衡问题。Nginx负载均衡的核心是Upstream模块,当Nginx 接收到用户发来的HTTP请求后,它将创建一个到后端应用服务器的Upstream请求,待应用服务器发送回响应数据后,Nginx再将后端Upstream中的数据转发给用户。Upstream支持的负载调度算法主要包括基于源IP的Hash、基于目的URL的Hash、基于响应时间的公平调度等。
Nginx的主要特点包括如下几点。
(1)调度灵活。Nginx工作在网络协议栈的第七层,能够对HtTP应用请求进行解析和分流,支持比较复杂的正则规则,具有更优化的负载调度效果。
(2)网络依赖性低。Nginx对网络的依赖程度非常低,理论上讲,只要能够Ping通就可以实施负载均衡,而且可以有效区分内网和外网流量。
(3)支持服务器检测。Nginx能够根据应用服务器处理页面返回的状态码、超时信息等检测服务器是否出现故障,并及时将返回错误的请求重新提交到其他节点上。
	相对于LVS, Nginx主要用于网络七层的调度,在灵活性和有效性方面更具优势,同时它对服务器健康状态的检测也避免了用户访向过程中的连接断线。但是,网络七层信息处理的复杂度也使得Nginx 在负载能力和稳定性方面与
LVS相比有较大的差距。另外,它目前只支持HTTP应用和EMAIL应用,在应用场景上不如LVS丰富,而且也不具备现成的双机热备方案。总体而言,实际场景中可以考虑LVS和Nginx的结合使用,其中将LVS部署在前端用于处理四层的负载均衡,当需要更细节的负载调度时再启用Nginx以优化调度效果。
还要说明的是,在实际应用中,L4负载均衡和L7负载均衡往往是搭配使用的,当然最好是在同一台负载均衡设备上兼具四层和七层功能。负载均衡设备首先从报文中提取IP地址和端口号,进行四层负载均衡,如果发现确有必要进行进一步的基于报文内容的转发,再实施七层负载均衡操作。

6.LVS

LVS ( Linux Virtual Server )是一个的开源软件项目,其目标是为Linux集群系统研发高性能、高可用的负载均衡解决方案。LVS安装和部署在负载均衡调度器上。安装了LVS负载调度器的主要功用类似于路由器,它含有完成LVS负载均衡功能所需的路由表,通过其中的路由信息将用户请求分发给集群中的应用服务器。同时LVS负载调度器还需要监测各台应用服务器的工作情况,并根据服务器的状态是否正常可用随时更新LVS路由表。

LVS的核心是IP负载均衡(见3.3),实现该功能的是IPVS模块,它被安装在负载调度器上并虚拟出一个IP地址提供给用户,用户必须通过该虚拟IP地址才能够访问到集群提供的应用服务,即所有的用户请求都首先经由虚拟IP地址达到负载调度器,然后负载调度器将从应用服务器列表中选择一个合适的节点响应用户请求。根据调度器将请求发送到应用服务器节点以及应用服务器返回数据给用户的方式上存在的差异,IPVS具有NAT (Network Address Translation )、TUN (IP Tunneling) 、DR (Direct Routing) 等不同的实现方式。

6.1 LVS体系结构

LVS体系结构主要分为3层,如下图所示

  1. 最前端负载均衡器,用LoadBalancer(LB)表示,有时也称为负载调度器(director)
  2. 中间的真实服务器群,用ServerArray表示
  3. 最底层的数据共享存储,用Share Storage表示。

LVS三种工作模式如下:

6.2 LVS-DR模式(Direct Routing直接路由模式)

DR模式下需要负载均衡器LoadBalancer(LB)RS(Real Server后台真实服务器)绑定同一个VIP(virtual IP)【也就是在RS的环回网卡上绑定LB的虚拟服务IP。这样RS会认为这个虚拟服务IP是自己的IP,自己是能够处理这个数据包的。防止RS直接丢弃该数据包!】, 一个请求过来时,LB只需要将请求包的MAC地址修改为某一台RS的MAC,该包就会被转发到相应的RS处理,注意此时的源IP和目标IP都没变,RS收到LB转发来的包,发现MAC是自己的,发现IP也是自己的,于是这个包被合法地接受,而当RS返回响应时,只要直接向源IP(即用户的IP)返回即可,

  • DR模式下,LB接收请求输入,将请求转发给RS,由RS输出响应给用户,性能非常高。特别适合下行流量较大的业务场景,比如请求视频等大文件。DR模式其实就是基于数据链路层负载均衡原理工作的。
  • 它的不足之处是要求负载均衡器LB与RS必须在一个子网上。【因为LB在转发过程中需要改写数据包的MAC为RS的MAC地址,所以要能够查询到RS的MAC。而要获取到RS的MAC,则需要保证二者位于一个子网,否则LB只能获取到RS网关的MAC地址。】

6.3 LVS-NAT模式(Network Address Translation地址转换模式)

  NAT模式下,请求包和响应包都需要经过负载均衡器LB处理。当客户端的请求到达后,LB会对请求包做目的地址转换(DNAT),将请求包的目的IP改写为RS的IP。当收到RS的响应后,LB会对响应包做源地址转换(SNAT),将响应包的源IP改写为LB的IP。

NAT模式请求和响应都需要经过负载均衡器LB,性能没有DR模式好。

6.4 LVS-TUN模式(隧道模式)

TUN模式是通过ip隧道技术减轻lvs调度服务器的压力,许多Internet服务(例如WEB服务器)的请求包很短小,而应答包通常很大,负载均衡器只负责将请求包分发给物理服务器,而物理服务器将应答包直接发给用户。所以,负载均衡器能处理很巨大的请求量。

  • 相比NAT性能要高的多,比DR模式的优点是不限制负载均衡器与RS在一个物理段上。
  • 但是它的不足需要所有的服务器(lvs、RS)支持"IP Tunneling"(IP Encapsulation)协议。

6.5 特点

  • 性能好。LVS集成在操作系统内核之中,在网络协议栈第四层对用户请求进行分发,自身没有流量的产生,因此具有极高的性能。
  • 配置简单。LVS已经被广大的Linux、 FreeBSD操作系统所支持,配置文件比较简单,操作便捷,降低了配置出错的几率。
  • 工作稳定。LVS在实际应用中已被广泛证明具有极强的可靠性,同时它具有完整的双机热备方案:LVS+KeepalivedLVS+Heartbeat等。

7.负载均衡部署方式

负载均衡设备在具体实现中分直连和旁挂两种部署方式。此外,为了提高网络可用性,负载均衡设备的双机热备部署也是十分必要的。

7.1 常用负载均衡部署方式

(1)直连部署方式

直连部署方式比较简单,就是将负载均衡设备直接部署在报文必经之路上,作为服务器和客户端之间的路由设备,来往报文均直接由负载均衡设备进行路由,其部署示意如图所示。

(2)旁挂部署方式

负载均衡设备的旁挂部署方式是指负载均衡设备并不作为服务器和客户端之间的路由设备,而只是旁挂在通用路由设备上,例如以板卡的形式插在路由设备的扩展插槽中,其部署示意如图所示。

在如图所示的旁挂模式中,用于中转报文的路由交换设备的配置非常重要,因为客户端发送给服务器的请求流量如果要首先被负载均衡设备接收,就必须在路由交换设备上预先配置到负载均衡设备虚拟IP地址的路由信息。

一般情况下, 旁挂部署方式中从服务器返回给客户端的流量可以不经过负载均衡设备,而是直接通过路由交换设备发给客户端。如果仍然希望流量先返回负载均衡设备,那么需要一些特殊的操作步骤, 例如:令服务器和负载均衡设备处于同一个二层网络中,服务器将其网关设置为负载均衡设备;在路由交换设备.上配置路由策略,将从服务器返回的流量定向到负载均衡设备上;负载均衡设备在转发客户端流量时进行源地址NAT转换。这些处理操作在负载均衡设备需要承担更多功用(例如SSL加速)的时候,是非常重要的。

7.2 双机热备部署方式

无论是直连还是旁挂的部署方式,负载均衡设备始终处于网络的关键路径上,因此负载均衡设备的稳定性和安全性直接影响网络的可用性。为了避免出现负载均衡设备故障导致整个系统的单点故障,负载均衡设备必须支持双机热
备,即在两台负载均衡设备之间通过备份链路进行对端设备.上的业务备份,以保证两台设备的业务状态始终保持一致。当其中一台设备发生故障时,业务流量能够被及时切换到另一台设备上。因为另一台设备已经备份了故障设备上的全部业务信息,所以业务流量能够继续由该设备处理并分发,从而尽可能避免造成业务中断。

(1)主备模式

两台负载均衡设备中,一台作为主设备,另一台作为备份设备。主设备负贵处理所有业务,并将产生的业务信息通过备份链路传送给备份设备。备份设备并不处理实际业务,而只用于备份。当主设备出现故障时,备份设备及时接替主设备处理业务,在负责正常处理新发起的负载均衡业务的同时也要保证此前正在进行中的负载均衡业务不会中断。

(2)负载分担模式

两台负载均衡设备均为主设备,都能够处理业务流量,同时又作为彼此的备份设备,负责备份对端设备产生的业务信息。当其中一台设备出现故障后,另一设备将负责处理全部业务,在负责正常处理新发起的负载均衡业务的同时,也要保证此前正在进行中的负载均衡业务不会中断。

posted @ 2020-08-10 11:20  控球强迫症  阅读(1180)  评论(1编辑  收藏  举报