『Nginx』具体配置(三)

一:Nginx配置实例 - 反向代理

 实例一:

  1.1:实现效果

    在Windows浏览器地址栏中输入www.123.com,跳转到Linux系统中的tomcat主页面

    访问Nginx:192.168.92.130:80

    访问Tomcat:192.168.92.130:8080

  1.2:访问过程分析

  1.3:具体配置

   1.3.1:在windows的host文件中配置域名和IP对应关系的配置,在host文件中添加内容:IP地址和内容 

 

  

这时在浏览器输入www.123.com:8080即可访问到Tomcat页面

      1.3.2:在Nginx进行请求转发的配置(反向代理配置)

     vi nginx.conf修改文件

 

  实例二:

    2.1:实现效果

     使用Nginx反向代理,根据访问的路径跳转到不同端口的服务中心

     访问http://192.168.92.130:9001/edu/   直接跳转到127.0.0.1:8080

     访问http://192.168.92.130:9001/vod/   直接跳转到127.0.0.1:8081

       2.2:准备两个Tomcat,一个8080端口,一个8081端口

      在tomcat8080中进入到webapps文件下,创建edu文件,创建a.html(内容8080)

      在tomcat8081中进入到webapps文件下,创建vod文件,创建a.html(内容8081)

     2.3:具体配置

      在请求路径中包含edu的访问8080端口,请求路径中包含vod的访问8081端口

 

     测试访问成功!

 

二:Nginx配置实例 - 负载均衡

    2.1:实现效果

    在浏览器中输入地址http://192.168.92.130/edu/a.html,平均分配到8080和8081端口中

    在两台tomcat中webapps文件中,创建edu文件夹,在edu文件夹中创建a.html页面

   2.2:具体配置

 

    2.3:负载均衡的分配策略

    1:轮询(默认)

       每个请求根据时间顺序逐一分配带不同的服务器,如果服务器down掉,会自动剔除

    2:weight

       weight代表权重,默认为1,权重越高被分配的客户端越多

     3:ip_hash

      每个请求按访问ip的hash结果分配;这样能固定访问访问同一个服务器,可以解决session的问题

 

     4:fair(第三方)

      按后端服务器的响应时间来分配请求,响应时间越短的优先分配

 

 

三:Nginx配置实例 - 动静分离

    1:动静分离简单来说就是把静态请求和动态请求分开,不能理解成只是单纯的静态页面和动态页面分开,

     可以理解成使用Nginx处理静态请求,Tomcat处理动态请求。目前动静分离实现方式有两种:

      1.1:纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案

      1.2:动态和静态文件混合发布,通过Nginx分开

    2:准备工作

      创建data文件,在data文件中创建www文件和img文件,在www文件中加入a.html,在img文件中加入一张图片

      data/www/a.html       data/img/3.png

     3:Nginx具体配置

 

四:Nginx配置高可用集群

  

   1:准备两台服务器,分别安装nginx,keepalived

           安装keepalived命令:yum install keepalived -y

                查看是否安装成功命令:rpm -q -a keepalived

                安装路径:/etc/keepalived/keepalived.conf

   2:主从配置

    2.1:修改keepalived的配置文件keepalived.conf

global_defs {
    notification_email {
      acassen@firewall.loc
      failover@firewall.loc
      sysadmin@firewall.loc
    }
    notification_email_from Alexandre.Cassen@firewall.loc
    smtp_ server 192.168.17.129
    smtp_connect_timeout 30
    router_id LVS_DEVEL    # LVS_DEVEL这字段在/etc/hosts文件中看;通过它访问到主机
}

vrrp_script chk_http_ port {
    script "/usr/local/src/nginx_check.sh"
    interval 2   # (检测脚本执行的间隔)2s
    weight 2  #权重,如果这个脚本检测为真,服务器权重+2
}

vrrp_instance VI_1 {
    state BACKUP   # 备份服务器上将MASTER 改为BACKUP
    interface ens33 //网卡名称
    virtual_router_id 51 # 主、备机的virtual_router_id必须相同
    priority 100   #主、备机取不同的优先级,主机值较大,备份机值较小
    advert_int 1    #每隔1s发送一次心跳
    authentication {    # 校验方式, 类型是密码,密码1111
        auth type PASS
        auth pass 1111
    }
 virtual_ipaddress { # 虛拟ip
        192.168.17.50 // VRRP H虛拟ip地址
    }
}

 

    2.2:在路径/usr/local/src/ 下新建检测脚本 nginx_check.sh 

#! /bin/bash
A=`ps -C nginx -no-header | wc - 1`
if [ $A -eq 0];then
    /usr/local/nginx/sbin/nginx
    sleep 2
    if [`ps -C nginx --no-header| wc -1` -eq 0 ];then
        killall keepalived
    fi
fi

 

  3:两台服务器启动Nginx和keepalived

     systemctl start keepalived.service   #启动keepalived
        ps -ef I grep keepalived      #查看keepalived是否启动

        systemctl stop keepalived.service     #停止keepalived

 

     4:测试

        在浏览器地址栏输入虚拟ip地址192.168.50.20

        把主服务器(192.168.92.130) nginx和keealived停止,再输入192.168.50.20

 

 

 五:Nginx工作原理

   1:master & worker

    master相当于管理者,worker可以有多个,当请求进来后,master告诉worker,worker进行处理

 

   2:worker如何进行工作(争抢机制)

 

 

 

  3:一个master和多个worker的好处

    3.1:可以使用 nginx -s reload 热部署,利用nginx进行热部署操作

    3.2:每个worker都是独立的进程,不需要加锁,如果其中一个worker出现问题,并不会影响到其他的

 

  4:需要设置多少个worker

     Nginx和Redis类似,都采用了IO多路复用机制,每个worker都是一个独立的进程,但每个进程只有一个主线程,

     通过异步非阻塞的方式来处理请求,worker数和服务器的cpu数相等最为适宜,如下:

     # 设置worker数量
     worker.processes 4;

       # 也可以把值设置为auto,nginx会自动检测当前主机的cpu核心数,并启动对应数量的worker进程

       worker.processes auto;

            # work绑定cpu(4work绑定4cpu)
            worker_cpu_affinity 0001 0010 0100 1000

           # work绑定cpu (4work绑定8cpu中的4个)
           worker_cpu_affinity 0000001 00000010 00000100 00001000

  

  5:连接数:worker_connection

     这个值是表示每个worker进程所能建立连接的最大值,所以,一个nginx 能建立的最大连接数,

       应该是worker_connections * worker_processes。当然,这里说的是最大连接数,对于HTTP

       请求本地资源来说,能够支持的最大并发数量是worker_connections * worker_processes,

       如果是支持http1.1的浏览器每次访问要占两个连接,

    所以普通的静态访问最大并发数是: worker_connections * worker_processes / 2

       而如果是HTTP作为反向代理来说,最大并发数量应该是worker_connections * worker_proceses/4.

       因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服务的连接,会占用两个连接.

 

      5.1:发送一个请求,占用了worker的几个连接数

        2个或4个

    5.2:nginx有一个master,四个worker,每个worker支持最大的连接数是1024,支持的最大并发数是多少

       worker_connections * worker_processes / 2

       worker_connections * worker_proceses/4.

 

posted @ 2020-06-09 15:27  打工人  阅读(308)  评论(0编辑  收藏  举报