一、负载均衡

  1、实现效果

    浏览器地址栏输入地址 http://192.168.17.129/edu/a.html,负载均衡效果,平均 8080和 8081 端口中

  2、准备工作

    (1)准备两台 tomcat 服务器,一台 8080,一台 8081
    (2)在两台 tomcat 里面 webapps 目录中,创建名称是 edu 文件夹,在 edu 文件夹中创建页面 a.html,用于测试

  3、在 nginx 的配置文件中进行负载均衡的配置

      

      

      

 

  4、nginx 分配服务器策略

    随着互联网信息的爆炸性增长,负载均衡(load balance)已经不再是一个很陌生的话题,顾名思义,负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应足够快,给用户很好的体验。

    快速增长的访问量和数据流量催生了各式各样的负载均衡产品,很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎,nginx 就是其中的一个,在 linux 下有 Nginx、 LVS、 Haproxy 等等服务可以提供负载均衡服务,而且 Nginx 提供了几种分配方式(策略):

    (1)轮询(默认)

      每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。

      

    (2)weight

      weight 代表权,重默认为 1,权重越高被分配的客户端越多。

      指定轮询几率, weight 和访问比率成正比,用于后端服务器性能不均的情况。

      例如:

upstream server_pool{
    server 192.168.5.21 weight=10;
    server 192.168.5.22 weight=10;
}

         

    (3)ip_hash

      每个请求按访问 ip hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。 例如:

upstream server_pool{
    ip_hash;
    server 192.168.5.21:80;
    server 192.168.5.22:80;
}

         

 

    (4)fair(第三方)

        按后端服务器的响应时间来分配请求,响应时间短的优先分配。

upstream server_pool{
    server 192.168.5.21:80;
    server 192.168.5.22:80;
    fair;
}

 

posted on 2021-08-25 14:57  格物致知_Tony  阅读(91)  评论(0)    收藏  举报