• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
悬溺
博客园    首页    新随笔    联系   管理    订阅  订阅
keepalived

keepalived高可用

1. keepalived简介

1.1 keepalived是什么?

Keepalived 软件起初是专为LVS负载均衡软件设计的,用来管理并监控LVS集群系统中各个服务节点的状态,后来又加入了可以实现高可用的VRRP功能。因此,Keepalived除了能够管理LVS软件外,还可以作为其他服务(例如:Nginx、Haproxy、MySQL等)的高可用解决方案软件。

Keepalived软件主要是通过VRRP协议实现高可用功能的。VRRP是Virtual Router RedundancyProtocol(虚拟路由器冗余协议)的缩写,VRRP出现的目的就是为了解决静态路由单点故障问题的,它能够保证当个别节点宕机时,整个网络可以不间断地运行。

所以,Keepalived 一方面具有配置管理LVS的功能,同时还具有对LVS下面节点进行健康检查的功能,另一方面也可实现系统网络服务的高可用功能。

keepalived官网

1.2 keepalived的重要功能

keepalived 有三个重要的功能,分别是:

  • 管理LVS负载均衡软件
  • 实现LVS集群节点的健康检查
  • 作为系统网络服务的高可用性(failover)

1.3 keepalived高可用故障转移的原理

Keepalived 高可用服务之间的故障切换转移,是通过 VRRP (Virtual Router Redundancy Protocol ,虚拟路由器冗余协议)来实现的。

在 Keepalived 服务正常工作时,主 Master 节点会不断地向备节点发送(多播的方式)心跳消息,用以告诉备 Backup 节点自己还活看,当主 Master 节点发生故障时,就无法发送心跳消息,备节点也就因此无法继续检测到来自主 Master 节点的心跳了,于是调用自身的接管程序,接管主 Master 节点的 IP 资源及服务。而当主 Master 节点恢复时,备 Backup 节点又会释放主节点故障时自身接管的IP资源及服务,恢复到原来的备用角色。

那么,什么是VRRP呢?
VRRP ,全 称 Virtual Router Redundancy Protocol ,中文名为虚拟路由冗余协议 ,VRRP的出现就是为了解决静态踣甶的单点故障问题,VRRP是通过一种竞选机制来将路由的任务交给某台VRRP路由器的。

1.4 keepalived原理

1.4.1 keepalived高可用架构图

img

1.4.2 keepalived工作原理描述

Keepalived高可用对之间是通过VRRP通信的,因此,我们从 VRRP开始了解起:

  1. VRRP,全称 Virtual Router Redundancy Protocol,中文名为虚拟路由冗余协议,VRRP的出现是为了解决静态路由的单点故障。
  2. VRRP是通过一种竟选协议机制来将路由任务交给某台 VRRP路由器的。
  3. VRRP用 IP多播的方式(默认多播地址(224.0_0.18))实现高可用对之间通信。
  4. 工作时主节点发包,备节点接包,当备节点接收不到主节点发的数据包的时候,就启动接管程序接管主节点的开源。备节点可以有多个,通过优先级竞选,但一般 Keepalived系统运维工作中都是一对。
  5. VRRP使用了加密协议加密数据,但Keepalived官方目前还是推荐用明文的方式配置认证类型和密码。

介绍完 VRRP,接下来我再介绍一下 Keepalived服务的工作原理:

Keepalived高可用是通过 VRRP 进行通信的, VRRP是通过竞选机制来确定主备的,主的优先级高于备,因此,工作时主会优先获得所有的资源,备节点处于等待状态,当主挂了的时候,备节点就会接管主节点的资源,然后顶替主节点对外提供服务。

在 Keepalived 服务之间,只有作为主的服务器会一直发送 VRRP 广播包,告诉备它还活着,此时备不会枪占主,当主不可用时,即备监听不到主发送的广播包时,就会启动相关服务接管资源,保证业务的连续性.接管速度最快可以小于1秒。

keepalived实现nginx负载均衡机高可用

环境说明

系统信息 主机名 IP
rhel7.4 master 192.168.78.146
rhel7.4 slave 192.168.78.147

在主备机上分别安装nginx

在master上安装nginx

[root@master ~]# dnf module install nginx:1.20    
Failed to set locale, defaulting to C.UTF-8
Last metadata expiration check: 0:00:40 ago on Tue Aug 30 0
6:39:25 2022.
Dependencies resolved.
===========================================================
 Package                     Arch   Version
                                           Repo       Size
===========================================================
Installing group/module packages:
 nginx                       x86_64 1:1.20.0-2.module_el8.5
//配置网页内容
[root@master html]# cd /usr/share/testpage/
[root@master testpage]# ls
index.html
[root@master testpage]# echo 'master page' > index.html   
[root@master testpage]# cat index.html  
master page
[root@master testpage]# pwd
/usr/share/testpage
[root@master testpage]# systemctl start nginx      //开启nginx服务,查看80端口号
[root@master testpage]# ss -antl
State          Recv-Q          Send-Q                   Local Address:Port                   Peer Address:Port         Process         
LISTEN         0               128                            0.0.0.0:80                          0.0.0.0:*                            
LISTEN         0               128                            0.0.0.0:22                          0.0.0.0:*                            
LISTEN         0               128                               [::]:80                             [::]:*                            
LISTEN         0               128                               [::]:22                             [::]:*      
//关闭防火墙
[root@master ~]# systemctl disable firewalld
Removed symlink /etc/systemd/system/multi-user.target.wants/firewalld.service.
Removed symlink /etc/systemd/system/dbus-org.fedoraproject.FirewallD1.service.
[root@master ~]# setenforce 0
[root@master ~]# sed -ri 's/^(SELINUX=).*/\1disabled/g' /etc/selinux/config

查看网页

在slave上安装nginx

//安装nginx
[root@slave ~]# dnf module install nginx:1.20
[root@slave ~]# echo 'backup page' > /usr/share/testpage/index.html 
[root@slave ~]# cat /usr/share/testpage/index.html 
backup page
[root@slave ~]# systemctl start nginx       //开启nginx服务,查看80端口号
[root@slave ~]# ss -antl
State          Recv-Q          Send-Q                   Local Address:Port                   Peer Address:Port         Process         
LISTEN         0               128                            0.0.0.0:80                          0.0.0.0:*                            
LISTEN         0               128                            0.0.0.0:22                          0.0.0.0:*                            
LISTEN         0               128                               [::]:80                             [::]:*                            
LISTEN         0               128                               [::]:22                             [::]:*                            
//关闭防火墙
[root@slave ~]# systemctl disable firewalld
Removed symlink /etc/systemd/system/multi-user.target.wants/firewalld.service.
Removed symlink /etc/systemd/system/dbus-org.fedoraproject.FirewallD1.service.
[root@slave ~]# setenforce 0
[root@slave ~]# sed -ri 's/^(SELINUX=).*/\1disabled/g' /etc/selinux/config

查看网页

配置主keepalived

[root@master ~]# dnf -y install keepalived
Failed to set locale, defaulting to C.UTF-8
Last metadata expiration check: 0:28:07 ago on Tue Aug 30 06:39:25 2
022.
Dependencies resolved.
====================================================================
 Package                    Arch   Version          Repo       Size
====================================================================
Installing:
 keepalived                 x86_64 2.1.5-6.el8      AppStream 537 k
[root@master ~]# cd /etc/keepalived/
[root@master keepalived]# ls
keepalived.conf       //主配置文件
[root@master keepalived]# vi keepalived.conf.bak 
[root@master keepalived]# cat keepalived.conf.bak 
! Configuration: File for keepalived

global_defs {
   router_id lb01
}

vrrp_instance VI_1 {
    state MASTER 
    interface ens160        //网卡的名字
    virtual_router_id 51    //虚拟路由器ID两边要一致
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 01
    }
    virtual_ipaddress {
        192.168.78.250        /    //vip地址
    }
}

virtual_server 192.168.78.250 80 {
    delay_loop 6
    lb_algo rr
    lb_kind DR
    persistence_timeout 50
    protocol TCP

    real_server 192.168.78.146 80 {       //主的ip
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }

    real_server 192.168.78.147 80 {      //备的ip
        weight 1 
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }
}
 //开机自启
[root@master keepalived]# systemctl enable --now keepalived.service
Created symlink /etc/systemd/system/multi-user.target.wants/keepalived.service → /usr/lib/systemd/system/keepalived.service.
 //开启服务
[root@master keepalived]# systemctl start keepalived
[root@master keepalived]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: ens160: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether 00:0c:29:ac:e2:0a brd ff:ff:ff:ff:ff:ff
    inet 192.168.78.146/24 brd 192.168.78.255 scope global dynamic noprefixroute ens160
       valid_lft 1538sec preferred_lft 1538sec
    inet 192.168.78.250/32 scope global ens160     //可以看到vip
       valid_lft forever preferred_lft forever
    inet6 fe80::20c:29ff:feac:e20a/64 scope link noprefixroute 
       valid_lft forever preferred_lft forever

配置备keepalived

[root@master ~]# dnf -y install keepalived
Failed to set locale, defaulting to C.UTF-8
Last metadata expiration check: 0:28:07 ago on Tue Aug 30 06:39:25 2
022.
Dependencies resolved.
====================================================================
 Package                    Arch   Version          Repo       Size
====================================================================
Installing:
 keepalived                 x86_64 2.1.5-6.el8      AppStream 537 k
[root@master ~]# cd /etc/keepalived/
[root@master keepalived]# ls
keepalived.conf       //主配置文件
[root@master keepalived]# vi keepalived.conf.bak 
[root@master keepalived]# cat keepalived.conf.bak 
! Configuration: File for keepalived

global_defs {
   router_id lb02
}

vrrp_instance VI_1 {
    state MASTER
    interface ens160
    virtual_router_id 51    //虚拟路由器ID两边要一致
    priority 90
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 01
    }
    virtual_ipaddress {
        192.168.78.250        /
    }
}

virtual_server 192.168.78.250 80 {
    delay_loop 6
    lb_algo rr
    lb_kind DR
    persistence_timeout 50
    protocol TCP

    real_server 192.168.78.146 80 {
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }

    real_server 192.168.78.147 80 {
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }
}
 //开机自启
[root@slave keepalived]# systemctl enable --now keepalived.service
Created symlink /etc/systemd/system/multi-user.target.wants/keepalived.service → /usr/lib/systemd/system/keepalived.service.
[root@slave keepalived]# systemctl start keepalived.conf 
Failed to start keepalived.conf.service: Unit keepalived.conf.service not found.
//开启服务
[root@slave keepalived]# systemctl start keepalived
[root@slave keepalived]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: ens160: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether 00:0c:29:bb:65:2d brd ff:ff:ff:ff:ff:ff
    inet 192.168.78.147/24 brd 192.168.78.255 scope global dynamic noprefixroute ens160
       valid_lft 1504sec preferred_lft 1504sec
    inet6 fe80::20c:29ff:febb:652d/64 scope link noprefixroute 
       valid_lft forever preferred_lft forever

脚本配置

[root@master ~]# mkdir scripts
[root@master ~]# cd scripts/
[root@master scripts]# vim check_nginx.sh
[root@master scripts]# cat check_nginx.sh 
#!/bin/bash
nginx_status=$(ps -ef|grep -Ev "grep|$0"|grep '\bnginx\b'|wc -l)
if [ $nginx_status -lt 1 ];then
            systemctl stop keepalived
fi
[root@master scripts]# chmod +x check_nginx.sh 
    
[root@master scripts]# vi notify.sh
[root@master scripts]# cat notify.sh 
#!/bin/bash
VIP=$2
case "$1" in
  master)
        nginx_status=$(ps -ef|grep -Ev "grep|$0"|grep '\bnginx\b'|wc -l)
        if [ $nginx_status -lt 1 ];then
            systemctl start nginx
        fi
        sendmail
  ;;
  backup)
        nginx_status=$(ps -ef|grep -Ev "grep|$0"|grep '\bnginx\b'|wc -l)
        if [ $nginx_status -gt 0 ];then
            systemctl stop nginx
        fi
  ;;
  *)
        echo "Usage:$0 master|backup VIP"
  ;;
esac
[root@master scripts]# chmod +x notify.sh 
[root@master scripts]# ll
total 8
-rwxr-xr-x 1 root root 150 Aug 30 23:45 check_nginx.sh
-rwxr-xr-x 1 root root 451 Aug 30 23:47 notify.sh

配置主配置文件

[root@master scripts]# vim /etc/keepalived/keepalived.conf 
[root@master scripts]# cat /etc/keepalived/keepalived.conf 
! Configuration: File for keepalived

global_defs {
   router_id lb01
}

vrrp_script nginx_check {          //添加之前写的脚本位置
    script "/scripts/check_nginx.sh"
    interval 1
    weight -20
}

vrrp_instance VI_1 {
    state BACKUP
    interface ens160
    virtual_router_id 51
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 01
    }
    virtual_ipaddress {
        192.168.78.250
    }
    track_script {            
        nginx_check
    }
    notify_master "/scripts/notify.sh master 192.168.78.250"
}

virtual_server 192.168.78.250 80 {
    delay_loop 6
    lb_algo rr
    lb_kind DR
    persistence_timeout 50
    protocol TCP

    real_server 192.168.78.146 80 {
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }

    real_server 192.168.78.147 80 {
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }
}
//重启使文件生效
[root@master scripts]# systemctl restart keepalived

配置备配置文件

[root@slave ~]# vim /etc/keepalived/keepalived.conf
[root@slave ~]# cat /etc/keepalived/keepalived.conf 
! Configuration: File for keepalived

global_defs {
   router_id lb02
}

vrrp_instance VI_1 {
    state BACKUP
    interface ens160
    virtual_router_id 51
    priority 90
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 01
    }
    virtual_ipaddress {
        192.168.78.250
    } 
    notify_master "/scripts/notify.sh master 192.168.78.250"     //加入vip位置
    notify_backup "/scripts/notify.sh backup 192.168.78.250"
}

virtual_server 192.168.78.250 80 {
    delay_loop 6
    lb_algo rr
    lb_kind DR
    persistence_timeout 50
    protocol TCP

    real_server 192.168.78.146 80 {
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }

    real_server 192.168.78.147 80 {
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }
}
//重启服务
[root@master scripts]# systemctl restart keepalived

测试

当主机能正常运行时

停掉nginx测试

[root@master ~]# systemctl stop nginx
[root@master ~]# ss -antl
State   Recv-Q  Send-Q   Local Address:Port   Peer Address:Port Process  
LISTEN  0       128            0.0.0.0:22          0.0.0.0:*             
LISTEN  0       128               [::]:22             [::]:*    
[root@master ~]# ip a     //vip没有了
2: ens160: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether 00:0c:29:ac:e2:0a brd ff:ff:ff:ff:ff:ff
    inet 192.168.78.146/24 brd 192.168.78.255 scope global dynamic noprefixroute ens160
       valid_lft 1195sec preferred_lft 1195sec

查看备主机ip

[root@slave ~]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: ens160: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether 00:0c:29:ac:e2:0a brd ff:ff:ff:ff:ff:ff
    inet 192.168.78.147/24 brd 192.168.78.255 scope global dynamic noprefixroute ens160
       valid_lft 1038sec preferred_lft 1038sec
    inet 192.168.78.250/32 scope global ens160      //可以看到已经到备主机上面
       valid_lft forever preferred_lft forever
    inet6 fe80::20c:29ff:feac:e20a/64 scope link noprefixroute 
       valid_lft forever preferred_lft forever

脑裂

在高可用(HA)系统中,当联系2个节点的“心跳线”断开时,本来为一整体、动作协调的HA系统,就分裂成为2个独立的个体。由于相互失去了联系,都以为是对方出了故障。两个节点上的HA软件像“裂脑人”一样,争抢“共享资源”、争起“应用服务”,就会发生严重后果——或者共享资源被瓜分、2边“服务”都起不来了;或者2边“服务”都起来了,但同时读写“共享存储”,导致数据损坏(常见如数据库轮询着的联机日志出错)。
  
对付HA系统“裂脑”的对策,目前达成共识的的大概有以下几条:

  • 添加冗余的心跳线,例如:双线条线(心跳线也HA),尽量减少“裂脑”发生几率;
  • 启用磁盘锁。正在服务一方锁住共享磁盘,“裂脑”发生时,让对方完全“抢不走”共享磁盘资源。但使用锁磁盘也会有一个不小的问题,如果占用共享盘的一方不主动“解锁”,另一方就永远得不到共享磁盘。现实中假如服务节点突然死机或崩溃,就不可能执行解锁命令。后备节点也就接管不了共享资源和应用服务。于是有人在HA中设计了“智能”锁。即:正在服务的一方只在发现心跳线全部断开(察觉不到对端)时才启用磁盘锁。平时就不上锁了。
  • 设置仲裁机制。例如设置参考IP(如网关IP),当心跳线完全断开时,2个节点都各自ping一下参考IP,不通则表明断点就出在本端。不仅“心跳”、还兼对外“服务”的本端网络链路断了,即使启动(或继续)应用服务也没有用了,那就主动放弃竞争,让能够ping通参考IP的一端去起服务。更保险一些,ping不通参考IP的一方干脆就自我重启,以彻底释放有可能还占用着的那些共享资源

3.1 脑裂产生的原因

一般来说,脑裂的发生,有以下几种原因:

  • 高可用服务器对之间心跳线链路发生故障,导致无法正常通信
    • 因心跳线坏了(包括断了,老化)
    • 因网卡及相关驱动坏了,ip配置及冲突问题(网卡直连)
    • 因心跳线间连接的设备故障(网卡及交换机)
    • 因仲裁的机器出问题(采用仲裁的方案)
  • 高可用服务器上开启了 iptables防火墙阻挡了心跳消息传输
  • 高可用服务器上心跳网卡地址等信息配置不正确,导致发送心跳失败
  • 其他服务配置不当等原因,如心跳方式不同,心跳广插冲突、软件Bug等

注意:

Keepalived配置里同一 VRRP实例如果 virtual_router_id两端参数配置不一致也会导致裂脑问题发生。

3.2 脑裂的常见解决方案

在实际生产环境中,我们可以从以下几个方面来防止裂脑问题的发生:

  • 同时使用串行电缆和以太网电缆连接,同时用两条心跳线路,这样一条线路坏了,另一个还是好的,依然能传送心跳消息
  • 当检测到裂脑时强行关闭一个心跳节点(这个功能需特殊设备支持,如Stonith、feyce)。相当于备节点接收不到心跳消患,通过单独的线路发送关机命令关闭主节点的电源
  • 做好对裂脑的监控报警(如邮件及手机短信等或值班).在问题发生时人为第一时间介入仲裁,降低损失。例如,百度的监控报警短信就有上行和下行的区别。报警消息发送到管理员手机上,管理员可以通过手机回复对应数字或简单的字符串操作返回给服务器.让服务器根据指令自动处理相应故障,这样解决故障的时间更短.
      
    当然,在实施高可用方案时,要根据业务实际需求确定是否能容忍这样的损失。对于一般的网站常规业务.这个损失是可容忍的

3.3 对脑裂进行监控

对脑裂的监控应在备用服务器上进行,通过添加zabbix自定义监控进行。
监控什么信息呢?监控备上有无VIP地址

备机上出现VIP有两种情况:

  • 发生了脑裂
  • 正常的主备切换

监控只是监控发生脑裂的可能性,不能保证一定是发生了脑裂,因为正常的主备切换VIP也是会到备上的。

监控脚本如下:

[root@slave ~]# mkdir -p /scripts && cd /scripts
[root@slave scripts]# vim check_keepalived.sh
#!/bin/bash

if [ `ip a show ens33 |grep 172.16.12.250|wc -l` -ne 0 ]
then
    echo "keepalived is error!"
else
    echo "keepalived is OK !"
fi

编写脚本时要注意,网卡要改成你自己的网卡名称,VIP也要改成你自己的VIP,最后不要忘了给脚本赋予执行权限,且要修改/scripts目录的属主属组为zabbix

监控脑裂

实验环境
主机名 ip 需求
zabbix 192.168.78.145 lamp,zabbix
master 192.168.78.146 keepalived,nginx
slave 192.168.78.147 keepalived,nginx,zabbix_agent
备机配置
//编写脚本
[root@slave ~]# mkdir scripts/
[root@slave ~]# cd scripts/
[root@slave scripts]# vi check_procexx.sh
[root@slave scripts]# cat check_procexx.sh 
//网卡名和vip
#!/bin/bash
if [ `ip a show ens160 |grep '192.168.78.250'|awk -F'[ /]+' '{print $3}'|wc -l` -eq 1 ];then
    echo 1
else
    echo 0
fi
[root@slave scripts]# ./check_keepalived.sh   //测试脚本
0[root@backup etc]# pwd
/usr/local/etc

[root@slave etc]# cat zabbix_agentd.conf  //在此文件最后添加
Server=192.168.220.145   //服务端ip
ServerActive=192.168.220.145  
Hostname=test   
UserParameter=check_keepalived,/bin/bash /scripts/check_keepalived.sh   


[root@backup ~]# pkill zabbix_agentd   
[root@backup ~]# zabbix_agentd 

客户端测试脚本

[root@zabbix ~]# zabbix_get -s 192.168.78.147 -k check_process
0

测试

[root@slave ~]# cat /etc/keepalived/keepalived.conf
! Configuration File for keepalived

global_defs {
   router_id lb02
}

vrrp_instance VI_1 {
    state BACKUP   
    interface ens160
    virtual_router_id 50   //修改虚拟路由器id使其产生脑裂
    priority 90    
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass wangqing
    }
    virtual_ipaddress {
        192.168.78.250
    }
    notify_master "/scripts/notify.sh master 192.168.78.250"
    notify_slave "/scripts/notify.sh backup 192.168.78.250"
}

virtual_server 192.168.78.250 80 {
    delay_loop 6
    lb_algo rr
    lb_kind DR
    persistence_timeout 50
    protocol TCP

    real_server 192.168.78.146 80 {
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }

    real_server 192.168.78.146 80 {
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }
}

//重新加载文件
[root@slave ~]# systemctl restart keepalived.service 


查看vip

主

[root@master ~]# ip a  
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: ens160: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether 00:0c:29:ac:e2:0a brd ff:ff:ff:ff:ff:ff
    inet 192.168.78.146/24 brd 192.168.78.255 scope global dynamic noprefixroute ens160
       valid_lft 1038sec preferred_lft 1038sec
    inet 192.168.78.250/32 scope global ens160    
       valid_lft forever preferred_lft forever
    inet6 fe80::20c:29ff:feac:e20a/64 scope link noprefixroute 
       valid_lft forever preferred_lft forever

备

[root@slave ~]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: ens160: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether 00:0c:29:ac:e2:0a brd ff:ff:ff:ff:ff:ff
    inet 192.168.78.147/24 brd 192.168.78.255 scope global dynamic noprefixroute ens160
       valid_lft 1038sec preferred_lft 1038sec
    inet 192.168.78.250/32 scope global ens160      
       valid_lft forever preferred_lft forever
    inet6 fe80::20c:29ff:feac:e20a/64 scope link noprefixroute 
       valid_lft forever preferred_lft forever

主机和备机上面都出现了vip
查看zaabix

posted on 2022-08-31 12:22  悬溺·  阅读(193)  评论(0)    收藏  举报
刷新页面返回顶部
博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3