集群LVS简介 LVS-NET LVS-DR
设备管理
2.6前/dev/目录 存放设备(静态管理)
所有设备都放到/dev/ 好几百个文件,这个目录下的文件没有大小,只有设备编号。
2.6后/sys目录 内核动态识别硬件(把硬件信息保存在该目录)
读设备(信息)----->/sys
内核读取硬件信息-----保存信息到/sys/,并通知udev程序
udev动态的把设备写入/dev下
1./dev/新建文件(给设备任意取名称myusb, 权限 所有者 组)
usb1----->/dev/sda1 usb2----->/dev/sda2
usb2----->/dev/sda1 usb1----->/dev/sda2
2.可以触发动作(命令)
3 案例3:编写udev规则
编写udev规则,实现以下目标:
当插入一个U盘时,该U盘自动出现一个链接称为udisk
U盘上的第1个分区名称为udisk1,以此类推
终端上出现提示信息”udisk plugged in”
问题:加载一个USB设备后,系统可能识别为sda也可能识别为sdb,能不能固定呢?
对于Linux kernel 2.6及更新的操作系统版本会将设备的相关信息动态写入/sys文件系统中,而udev程序可以通过读取这些设备系信息,并根据自己的udev规则进行设备管理器,实现如下功能:
处理设备命名
决定要创建哪些设备文件或链接
决定如何设置属性
决定触发哪些事件
udev默认规则存放在/etc/udev/rules.d目录下,通过修改此目录下的规则实现设备的命名、属性、链接文件等。
实现此案例需要按照如下步骤进行。
步骤一:编写udev规则
1)准备USB设备(如果使用真实机演示,下面为虚拟机添加USB设备可以忽略)
使用virt-manager为虚拟机添加USB设备,如图-5所示。注意添加设备时一定要选择正确的USB设备,图-9仅是参考案例,每个人的USB品牌与型号都有可能不一样!
1)查看设备属性
加载USB设备的同时实时查看设备的相关属性,可以使用monitor指令。
[root@proxy ~]# udevadm monitor --property
如果设备已经加载则无法使用monitor查看相关属性。可以使用下面的命令查看设备属性。
[root@proxy ~]# udevadm info --query=path --name=/dev/sda #查存储路径
[root@proxy ~]# udevadm info --query=property --path=/block/sda #查属性
[root@proxy ~]# udevadm info --query=all --attribute-walk --path=/block/sda
单独查看某个磁盘分区的属性信息。
[root@proxy ~]# udevadm info --query=property --path=/block/sdada1
编写udev规则文件(实现插拔USB设备时有屏幕提示信息)
[root@proxy ~]# vim /etc/udev/rules.d/70-usb.rules
SUBSYSTEMS=="usb",ATTRS{manufacturer}=="TOSHIBA",ATTRS{serial}=="60A44CB4665EEE4133500001",RUN+="/usr/bin/wall udisk plugged in"
[root@proxy ~]# udevadm info --query=property --path=/block/sdb/sdb1
[root@proxy ~]# /etc/udev/rules.d/70-usb.rules
ACTION=="add",ENV{ID_VENDOR}=="TOSHIBA",ENV{DEVTYPE}=="partition",ENV{ID_SERIAL_SHORT}=="60A44CB4665EEE4133500001",SYMLINK="usb%n"
[root@proxy ~]# /etc/udev/rules.d/70-usb.rules
ACTION=="add",ENV{ID_VENDOR}=="TOSHIBA",ENV{DEVTYPE}=="partition",ENV{ID_SERIAL_SHORT}=="60A44CB4665EEE4133500001",SYMLINK="usb%n",OWNER="root",GROUP="root",MODE="0644" 设置权限
[root@proxy ~]# /etc/udev/rules.d/70-usb.rules
ACTION=="add",ENV{ID_VENDOR}=="TOSHIBA",ENV{ID_SERIAL_SHORT}=="60A44CB4665EEE4133500001",RUN+="/usr/bin/systemctl start httpd"
ACTION=="remove",ENV{ID_VENDOR}=="TOSHIBA",ENV{ID_SERIAL_SHORT}=="60A44CB4665EEE4133500001",RUN+="/usr/bin/systemctl stop httpd"
udev规则文件,常见指令操作符如表-4所示。
udev常用替代变量:
%k:内核所识别出来的设备名,如sdb1
%n:设备的内核编号,如sda3中的3
%p:设备路径,如/sys/block/sdb/sdb1
%%:%符号本身
案例4:配置并访问NFS共享
步骤一:配置NFS服务器,发布指定的共享
1)确认服务端程序、准备共享目录
软件包nfs-utils用来提供NFS共享服务及相关工具,而软件包rpcbind用来提供RPC协议的支持,这两个包在RHEL7系统中一般都是默认安装的:
[root@proxy ~]# rpm -q nfs-utils rpcbind
nfs-utils-1.3.0-0.48.el7.x86_64
rpcbind-0.2.0-42.el7.x86_64
根据本例的要求,需要作为NFS共享发布的有/root、/usr/src这两个目录:
[root@proxy ~]# ls -ld /root /usr/src/
dr-xr-x---. 35 root root 4096 1月 15 18:52 /root
drwxrwxr-x+ 4 root root 4096 1月 15 17:35 /usr/src/
2)修改/etc/exports文件,添加共享目录设置
默认情况下,来自NFS客户端的root用户会被自动降权为普通用户,若要保留其root权限,注意应添加no_root_squash控制参数(没有该参数,默认root会被自动降级为普通账户);另外,限制只读的参数为ro、可读可写为rw,相关配置操作如下所示:
[root@proxy ~]# vim /etc/exports
/root 192.168.2.100(rw,no_root_squash)
/usr/src 192.168.2.0/24(ro)
3)启动NFS共享相关服务,确认共享列表
依次启动rpcbiind、nfs服务:
[root@proxy ~]# systemctl restart rpcbind ; systemctl enable rpcbind
[root@proxy ~]# systemctl restart nfs ; systemctl enable nfs
使用showmount命令查看本机发布的NFS共享列表:
[root@proxy ~]# showmount -e localhost
Export list for localhost:
/usr/src 192.168.2.0/24
/root 192.168.2.100
步骤二:从客户机访问NFS共享
1)启用NFS共享支持服务
客户机访问NFS共享也需要rpcbind服务的支持,需确保此服务已开启:
[root@web1 ~]# systemctl restart rpcbind ; systemctl enable rpcbind
2)查看服务器提供的NFS共享列表
[root@web1 ~]# showmount -e 192.168.2.5
Export list for 192.168.2.5:
/usr/src 192.168.2.0/24
/root 192.168.2.100
3)从客户机192.168.2.100访问两个NFS共享,并验证权限
将远程的NFS共享/root挂载到本地的/root5文件夹,并验证可读可写:
[root@web1 ~]# mkdir /root5 //建立挂载点
[root@web1 ~]# mount 192.168.2.5:/root /root5 //挂载NFS共享目录
[root@web1 ~]# df -hT /root5 //确认挂载结果
Filesystem Type Size Used Avail Use% Mounted on
192.168.2.5:/root nfs 50G 15G 33G 31% /root5
[root@web1 ~]# cd /root5 //切换到挂载点
[root@web1 root5]# echo "NFS Write Test" > test.txt //测试写入文件
[root@web1 root5]# cat test.txt //测试查看文件
NFS Write Test
将远程的NFS共享/usr/src挂载到本地的/mnt/nfsdir,并验证只读:
[root@web1 ~]# mkdir /mnt/nfsdir //建立挂载点
[root@web1 ~]# mount 192.168.2.5:/usr/src /mnt/nfsdir/ //挂载NFS共享目录
[root@web1 ~]# df -hT /mnt/nfsdir/ 配置记录格式:文件夹路径 客户地址1(控制参数.. ..) 客户地址2(.. ..) 。
//确认挂载结果
Filesystem Type Size Used Avail Use% Mounted on
192.168.2.5:/usr/src nfs 50G 15G 33G 31% /mnt/nfsdir
[root@web1 ~]# cd /mnt/nfsdir/ //切换到挂载点
[root@web1 nfsdir]# ls //读取目录列表
debug install.log kernels test.txt
[root@web1 nfsdir]# echo "Write Test." > pc.txt //尝试写入文件失败
-bash: pc.txt: 只读文件系统
!!!! 如果从未授权的客户机访问NFS共享,将会被拒绝。比如从NFS服务器本机尝试访问自己发布的/root共享(只允许192.168.2.100访问),结果如下所示:
[root@proxy ~]# mkdir /root5
[root@proxy ~]# mount 192.168.2.5:/root /root5
mount.nfs: access denied by server while mounting 192.168.2.5:/root
4)设置永久挂载
[root@web1 ~]# vim /etc/fstab
.. ..
192.168.2.5:/usr/src nfsdir nfs default,ro 0 0
192.168.2.5:/root root5 nfs default 0 0
准备一台Linux服务器,安装ipvsadm软件包,练习使用ipvsadm命令,实现如下功能:
- 使用命令添加基于TCP一些的集群服务
- 在集群中添加若干台后端真实服务器
- 实现同一客户端访问,调度器分配固定服务器
- 会使用ipvsadm实现规则的增、删、改
- 保存ipvsadm规则
1.2 方案
安装ipvsadm软件包,关于ipvsadm的用法可以参考man ipvsadm资料。
常用ipvsadm命令语法格式如表-1及表-2所示。
表-1 ipvsadm命令选项

表-2 ipvsadm语法案例

1.3 步骤
实现此案例需要按照如下步骤进行。
步骤一:使用命令增、删、改LVS集群规则
1)创建LVS虚拟集群服务器(算法为加权轮询:wrr)
- [root@proxy ~]# yum -y install ipvsadm
- [root@proxy ~]# ipvsadm -A -t 192.168.4.5:80 -s wrr
- [root@proxy ~]# ipvsadm -Ln
- IP Virtual Server version 1.2.1 (size=4096)
- Prot LocalAddress:Port Scheduler Flags
- -> RemoteAddress:Port Forward Weight ActiveConn InActConn
- TCP 192.168.4.5:80 wrr
2)为集群添加若干real server
- [root@proxy ~]# ipvsadm -a -t 192.168.4.5:80 -r 192.168.2.100 -m -w 1
- [root@proxy ~]# ipvsadm -Ln
- IP Virtual Server version 1.2.1 (size=4096)
- Prot LocalAddress:Port Scheduler Flags
- -> RemoteAddress:Port Forward Weight ActiveConn InActConn
- TCP 192.168.4.5:80 wrr
- -> 192.168.2.100:80 Masq 1 0 0
- [root@proxy ~]# ipvsadm -a -t 192.168.4.5:80 -r 192.168.2.200 -m -w 2
- [root@proxy ~]# ipvsadm –a -t 192.168.4.5:80 -r 192.168.2.201 -m -w 3
- [root@proxy ~]# ipvsadm –a -t 192.168.4.5:80 -r 192.168.2.202 -m -w 4
3)修改集群服务器设置(修改调度器算法,将加权轮询修改为轮询)
- [root@proxy ~]# ipvsadm -E -t 192.168.4.5:80 -s rr
- [root@proxy ~]# ipvsadm -Ln
- IP Virtual Server version 1.2.1 (size=4096)
- Prot LocalAddress:Port Scheduler Flags
- -> RemoteAddress:Port Forward Weight ActiveConn InActConn
- TCP 192.168.4.5:80 rr
- -> 192.168.2.100:80 Masq 1 0 0
- -> 192.168.2.200:80 Masq 2 0 0
- -> 192.168.2.201:80 Masq 2 0 0
- -> 192.168.2.202:80 Masq 1 0 0
4)修改read server(使用-g选项,将模式改为DR模式)
- [root@proxy ~]# ipvsadm -e -t 192.168.4.5:80 -r 192.168.2.202 -g
5)查看LVS状态
- [root@proxy ~]# ipvsadm -Ln
6)创建另一个集群(算法为最少连接算法;使用-m选项,设置工作模式为NAT模式)
- [root@proxy ~]# ipvsadm -A -t 192.168.4.5:3306 -s lc
- [root@proxy ~]# ipvsadm -a -t 192.168.4.5:3306 -r 192.168.2.100 -m
- [root@proxy ~]# ipvsadm -a -t 192.168.4.5:3306 -r 192.168.2.200 -m
6)永久保存所有规则
- [root@proxy ~]# ipvsadm-save -n > /etc/sysconfig/ipvsadm
7)清空所有规则
- [root@proxy ~]# ipvsadm -C
2 案例2:部署LVS-NAT集群
2.1 问题
使用LVS实现NAT模式的集群调度服务器,为用户提供Web服务:
- 集群对外公网IP地址为192.168.4.5
- 调度器内网IP地址为192.168.2.5
- 真实Web服务器地址分别为192.168.2.100、192.168.2.200
- 使用加权轮询调度算法,真实服务器权重分别为1和2
2.2 方案
实验拓扑结构主机配置细节如表-3所示。
表-3

使用4台虚拟机,1台作为Director调度器、2台作为Real Server、1台客户端,拓扑结构如图-1所示,注意:web1和web2必须配置网关地址。

图-1
2.3 步骤
实现此案例需要按照如下步骤进行。
步骤一:配置基础环境
1)设置Web服务器(以web1为例)
- [root@web1 ~]# yum -y install httpd
- [root@web1 ~]# echo "192.168.2.100" > /var/www/html/index.html
2)启动Web服务器软件
- [root@web1 ~]# systemctl restart httpd
3)关闭防火墙与SELinux
- [root@web1 ~]# systmctl stop firewalld
- [root@web1 ~]# setenforce 0
步骤三:部署LVS-NAT模式调度器
1)确认调度器的路由转发功能(如果已经开启,可以忽略)
- [root@proxy ~]# echo 1 > /proc/sys/net/ipv4/ip_forward
- [root@proxy ~]# cat /proc/sys/net/ipv4/ip_forward
- 1
- [root@proxy ~]# echo "net.ipv4.ip_forward = 1" >> /etc/sysctl.conf
- #修改配置文件,设置永久规则
2)创建集群服务器
- [root@proxy ~]# yum -y install ipvsadm
- [root@proxy ~]# ipvsadm -A -t 192.168.4.5:80 -s wrr
2)添加真实服务器
- [root@proxy ~]# ipvsadm -a -t 192.168.4.5:80 -r 192.168.2.100 -w 1 -m
- [root@proxy ~]# ipvsadm -a -t 192.168.4.5:80 -r 192.168.2.200 -w 1 -m
3)查看规则列表,并保存规则
- [root@proxy ~]# ipvsadm -Ln
- [root@proxy ~]# ipvsadm-save -n > /etc/sysconfig/ipvsadm
步骤四:客户端测试
客户端使用curl命令反复连接http://192.168.4.5,查看访问的页面是否会轮询到不同的后端真实服务器。
3 案例3:部署LVS-DR集群
3.1 问题
使用LVS实现DR模式的集群调度服务器,为用户提供Web服务:
- 客户端IP地址为192.168.4.10
- LVS调度器VIP地址为192.168.4.15
- LVS调度器DIP地址设置为192.168.4.5
- 真实Web服务器地址分别为192.168.4.100、192.168.4.200
- 使用加权轮询调度算法,web1的权重为1,web2的权重为2
说明:
CIP是客户端的IP地址;
VIP是对客户端提供服务的IP地址;
RIP是后端服务器的真实IP地址;
DIP是调度器与后端服务器通信的IP地址(VIP必须配置在虚拟接口)。
3.2 方案
使用4台虚拟机,1台作为客户端、1台作为Director调度器、2台作为Real Server,拓扑结构如图-2所示。实验拓扑结构主机配置细节如表-4所示。

图-2
表-4

3.3 步骤
实现此案例需要按照如下步骤进行。
说明:
CIP是客户端的IP地址;
VIP是对客户端提供服务的IP地址;
RIP是后端服务器的真实IP地址;
DIP是调度器与后端服务器通信的IP地址(VIP必须配置在虚拟接口)。
步骤一:配置实验网络环境
1)设置Proxy代理服务器的VIP和DIP
注意:为了防止冲突,VIP必须要配置在网卡的虚拟接口!!!
- [root@proxy ~]# cd /etc/sysconfig/network-scripts/
- [root@proxy ~]# cp ifcfg-eth0{,:0}
- [root@proxy ~]# vim ifcfg-eth0
- TYPE=Ethernet
- BOOTPROTO=none
- NAME=eth0
- DEVICE=eth0
- ONBOOT=yes
- IPADDR=192.168.4.5
- PREFIX=24
- [root@proxy ~]# vim ifcfg-eth0:0
- TYPE=Ethernet
- BOOTPROTO=none
- DEFROUTE=yes
- NAME=eth0:0
- DEVICE=eth0:0
- ONBOOT=yes
- IPADDR=192.168.4.15
- PREFIX=24
- [root@proxy ~]# systemctl restart network
2)设置Web1服务器网络参数
- [root@web1 ~]# nmcli connection modify eth0 ipv4.method manual \
- ipv4.addresses 192.168.4.100/24 connection.autoconnect yes
- [root@web1 ~]# nmcli connection up eth0
接下来给web1配置VIP地址。
注意:这里的子网掩码必须是32(也就是全255),网络地址与IP地址一样,广播地址与IP地址也一样。
- [root@web1 ~]# cd /etc/sysconfig/network-scripts/
- [root@web1 ~]# cp ifcfg-lo{,:0}
- [root@web1 ~]# vim ifcfg-lo:0
- DEVICE=lo:0
- IPADDR=192.168.4.15
- NETMASK=255.255.255.255
- NETWORK=192.168.4.15
- BROADCAST=192.168.4.15
- ONBOOT=yes
- NAME=lo:0
防止地址冲突的问题:
这里因为web1也配置与代理一样的VIP地址,默认肯定会出现地址冲突;
sysctl.conf文件写入这下面四行的主要目的就是访问192.168.4.15的数据包,只有调度器会响应,其他主机都不做任何响应,这样防止地址冲突的问题。
- [root@web1 ~]# vim /etc/sysctl.conf
- #手动写入如下4行内容
- net.ipv4.conf.all.arp_ignore = 1
- net.ipv4.conf.lo.arp_ignore = 1
- net.ipv4.conf.lo.arp_announce = 2
- net.ipv4.conf.all.arp_announce = 2
- #当有arp广播问谁是192.168.4.15时,本机忽略该ARP广播,不做任何回应
- #本机不要向外宣告自己的lo回环地址是192.168.4.15
- [root@web1 ~]# sysctl -p
重启网络服务,设置防火墙与SELinux
- [root@web1 ~]# systemctl restart network
- [root@web1 ~]# ifconfig
- [root@web1 ~]# systemctl stop firewalld
- [root@web1 ~]# setenforce 0
3)设置Web2服务器网络参数
- [root@web2 ~]# nmcli connection modify eth0 ipv4.method manual \
- ipv4.addresses 192.168.4.200/24 connection.autoconnect yes
- [root@web2 ~]# nmcli connection up eth0
接下来给web2配置VIP地址
注意:这里的子网掩码必须是32(也就是全255),网络地址与IP地址一样,广播地址与IP地址也一样。
- [root@web2 ~]# cd /etc/sysconfig/network-scripts/
- [root@web2 ~]# cp ifcfg-lo{,:0}
- [root@web2 ~]# vim ifcfg-lo:0
- DEVICE=lo:0
- IPADDR=192.168.4.15
- NETMASK=255.255.255.255
- NETWORK=192.168.4.15
- BROADCAST=192.168.4.15
- ONBOOT=yes
- NAME=lo:0
防止地址冲突的问题:
这里因为web1也配置与代理一样的VIP地址,默认肯定会出现地址冲突;
sysctl.conf文件写入这下面四行的主要目的就是访问192.168.4.15的数据包,只有调度器会响应,其他主机都不做任何响应,这样防止地址冲突的问题。
- [root@web2 ~]# vim /etc/sysctl.conf
- #手动写入如下4行内容
- net.ipv4.conf.all.arp_ignore = 1
- net.ipv4.conf.lo.arp_ignore = 1
- net.ipv4.conf.lo.arp_announce = 2
- net.ipv4.conf.all.arp_announce = 2
- #当有arp广播问谁是192.168.4.15时,本机忽略该ARP广播,不做任何回应
- #本机不要向外宣告自己的lo回环地址是192.168.4.15
- [root@web2 ~]# sysctl -p
重启网络服务,设置防火墙与SELinux
- [root@web2 ~]# systemctl restart network
- [root@web2 ~]# ifconfig
- [root@web2 ~]# systemctl stop firewalld
- [root@web2 ~]# setenforce 0
步骤二:配置后端Web服务器
1)自定义Web页面
- [root@web1 ~]# yum -y install httpd
- [root@web1 ~]# echo "192.168.4.100" > /var/www/html/index.html
- [root@web2 ~]# yum -y install httpd
- [root@web2 ~]# echo "192.168.4.200" > /var/www/html/index.html
2)启动Web服务器软件
- [root@web1 ~]# systemctl restart httpd
- [root@web2 ~]# systemctl restart httpd
步骤三:proxy调度器安装软件并部署LVS-DR模式调度器
1)安装软件(如果已经安装,此步骤可以忽略)
- [root@proxy ~]# yum -y install ipvsadm
2)清理之前实验的规则,创建新的集群服务器规则
- [root@proxy ~]# ipvsadm -C #清空所有规则
- [root@proxy ~]# ipvsadm -A -t 192.168.4.15:80 -s wrr
3)添加真实服务器(-g参数设置LVS工作模式为DR模式,-w设置权重)
- [root@proxy ~]# ipvsadm -a -t 192.168.4.15:80 -r 192.168.4.100 -g -w 1
- [root@proxy ~]# ipvsadm -a -t 192.168.4.15:80 -r 192.168.4.200 -g -w 1
4)查看规则列表,并保存规则
- [root@proxy ~]# ipvsadm -Ln
- TCP 192.168.4.15:80 wrr
- -> 192.168.4.100:80 Route 1 0 0
- -> 192.168.4.200:80 Route 2 0 0
- [root@proxy ~]# ipvsadm-save -n > /etc/sysconfig/ipvsadm
步骤四:客户端测试
客户端使用curl命令反复连接http://192.168.4.15,查看访问的页面是否会轮询到不同的后端真实服务器。
扩展知识:默认LVS不带健康检查功能,需要自己手动编写动态检测脚本,实现该功能:(参考脚本如下,仅供参考)
- [root@proxy ~]# vim check.sh
- #!/bin/bash
- VIP=192.168.4.15:80
- RIP1=192.168.4.100
- RIP2=192.168.4.200
- while :
- do
- for IP in $RIP1 $RIP2
- do
- curl -s http://$IP &>/dev/vnull
- if [ $? -eq 0 ];then
- ipvsadm -Ln |grep -q $IP || ipvsadm -a -t $VIP -r $IP
- else
- ipvsadm -Ln |grep -q $IP && ipvsadm -d -t $VIP -r $IP
- fi
- done
- sleep 1
- done