集群LVS简介 LVS-NET LVS-DR

设备管理
2.6前/dev/目录 存放设备(静态管理)
所有设备都放到/dev/ 好几百个文件,这个目录下的文件没有大小,只有设备编号。
2.6后/sys目录 内核动态识别硬件(把硬件信息保存在该目录)
读设备(信息)----->/sys

内核读取硬件信息-----保存信息到/sys/,并通知udev程序
udev动态的把设备写入/dev下
1./dev/新建文件(给设备任意取名称myusb, 权限 所有者 组)
usb1----->/dev/sda1 usb2----->/dev/sda2
usb2----->/dev/sda1 usb1----->/dev/sda2
2.可以触发动作(命令)

 

3 案例3:编写udev规则
编写udev规则,实现以下目标:
当插入一个U盘时,该U盘自动出现一个链接称为udisk
U盘上的第1个分区名称为udisk1,以此类推
终端上出现提示信息”udisk plugged in”
问题:加载一个USB设备后,系统可能识别为sda也可能识别为sdb,能不能固定呢?
对于Linux kernel 2.6及更新的操作系统版本会将设备的相关信息动态写入/sys文件系统中,而udev程序可以通过读取这些设备系信息,并根据自己的udev规则进行设备管理器,实现如下功能:
处理设备命名
决定要创建哪些设备文件或链接
决定如何设置属性
决定触发哪些事件
udev默认规则存放在/etc/udev/rules.d目录下,通过修改此目录下的规则实现设备的命名、属性、链接文件等。
实现此案例需要按照如下步骤进行。
步骤一:编写udev规则

1)准备USB设备(如果使用真实机演示,下面为虚拟机添加USB设备可以忽略)

使用virt-manager为虚拟机添加USB设备,如图-5所示。注意添加设备时一定要选择正确的USB设备,图-9仅是参考案例,每个人的USB品牌与型号都有可能不一样!
1)查看设备属性
加载USB设备的同时实时查看设备的相关属性,可以使用monitor指令。
[root@proxy ~]# udevadm monitor --property
如果设备已经加载则无法使用monitor查看相关属性。可以使用下面的命令查看设备属性。
[root@proxy ~]# udevadm info --query=path --name=/dev/sda #查存储路径
[root@proxy ~]# udevadm info --query=property --path=/block/sda #查属性
[root@proxy ~]# udevadm info --query=all --attribute-walk --path=/block/sda
单独查看某个磁盘分区的属性信息。
[root@proxy ~]# udevadm info --query=property --path=/block/sdada1

编写udev规则文件(实现插拔USB设备时有屏幕提示信息)
[root@proxy ~]# vim /etc/udev/rules.d/70-usb.rules
SUBSYSTEMS=="usb",ATTRS{manufacturer}=="TOSHIBA",ATTRS{serial}=="60A44CB4665EEE4133500001",RUN+="/usr/bin/wall udisk plugged in"

[root@proxy ~]# udevadm info --query=property --path=/block/sdb/sdb1
[root@proxy ~]# /etc/udev/rules.d/70-usb.rules
ACTION=="add",ENV{ID_VENDOR}=="TOSHIBA",ENV{DEVTYPE}=="partition",ENV{ID_SERIAL_SHORT}=="60A44CB4665EEE4133500001",SYMLINK="usb%n"

[root@proxy ~]# /etc/udev/rules.d/70-usb.rules
ACTION=="add",ENV{ID_VENDOR}=="TOSHIBA",ENV{DEVTYPE}=="partition",ENV{ID_SERIAL_SHORT}=="60A44CB4665EEE4133500001",SYMLINK="usb%n",OWNER="root",GROUP="root",MODE="0644" 设置权限


[root@proxy ~]# /etc/udev/rules.d/70-usb.rules
ACTION=="add",ENV{ID_VENDOR}=="TOSHIBA",ENV{ID_SERIAL_SHORT}=="60A44CB4665EEE4133500001",RUN+="/usr/bin/systemctl start httpd"
ACTION=="remove",ENV{ID_VENDOR}=="TOSHIBA",ENV{ID_SERIAL_SHORT}=="60A44CB4665EEE4133500001",RUN+="/usr/bin/systemctl stop httpd"
udev规则文件,常见指令操作符如表-4所示。

udev常用替代变量:
%k:内核所识别出来的设备名,如sdb1
%n:设备的内核编号,如sda3中的3
%p:设备路径,如/sys/block/sdb/sdb1
%%:%符号本身

案例4:配置并访问NFS共享
步骤一:配置NFS服务器,发布指定的共享

1)确认服务端程序、准备共享目录
软件包nfs-utils用来提供NFS共享服务及相关工具,而软件包rpcbind用来提供RPC协议的支持,这两个包在RHEL7系统中一般都是默认安装的:
[root@proxy ~]# rpm -q nfs-utils rpcbind
nfs-utils-1.3.0-0.48.el7.x86_64
rpcbind-0.2.0-42.el7.x86_64
根据本例的要求,需要作为NFS共享发布的有/root、/usr/src这两个目录:
[root@proxy ~]# ls -ld /root /usr/src/
dr-xr-x---. 35 root root 4096 1月 15 18:52 /root
drwxrwxr-x+ 4 root root 4096 1月 15 17:35 /usr/src/
2)修改/etc/exports文件,添加共享目录设置
默认情况下,来自NFS客户端的root用户会被自动降权为普通用户,若要保留其root权限,注意应添加no_root_squash控制参数(没有该参数,默认root会被自动降级为普通账户);另外,限制只读的参数为ro、可读可写为rw,相关配置操作如下所示:
[root@proxy ~]# vim /etc/exports
/root 192.168.2.100(rw,no_root_squash)
/usr/src 192.168.2.0/24(ro)

3)启动NFS共享相关服务,确认共享列表
依次启动rpcbiind、nfs服务:
[root@proxy ~]# systemctl restart rpcbind ; systemctl enable rpcbind
[root@proxy ~]# systemctl restart nfs ; systemctl enable nfs
使用showmount命令查看本机发布的NFS共享列表:
[root@proxy ~]# showmount -e localhost
Export list for localhost:
/usr/src 192.168.2.0/24
/root 192.168.2.100

步骤二:从客户机访问NFS共享
1)启用NFS共享支持服务
客户机访问NFS共享也需要rpcbind服务的支持,需确保此服务已开启:
[root@web1 ~]# systemctl restart rpcbind ; systemctl enable rpcbind
2)查看服务器提供的NFS共享列表
[root@web1 ~]# showmount -e 192.168.2.5
Export list for 192.168.2.5:
/usr/src 192.168.2.0/24
/root 192.168.2.100
3)从客户机192.168.2.100访问两个NFS共享,并验证权限
将远程的NFS共享/root挂载到本地的/root5文件夹,并验证可读可写:
[root@web1 ~]# mkdir /root5 //建立挂载点
[root@web1 ~]# mount 192.168.2.5:/root /root5 //挂载NFS共享目录
[root@web1 ~]# df -hT /root5 //确认挂载结果
Filesystem Type Size Used Avail Use% Mounted on
192.168.2.5:/root nfs 50G 15G 33G 31% /root5
[root@web1 ~]# cd /root5 //切换到挂载点
[root@web1 root5]# echo "NFS Write Test" > test.txt //测试写入文件
[root@web1 root5]# cat test.txt //测试查看文件
NFS Write Test
将远程的NFS共享/usr/src挂载到本地的/mnt/nfsdir,并验证只读:
[root@web1 ~]# mkdir /mnt/nfsdir //建立挂载点
[root@web1 ~]# mount 192.168.2.5:/usr/src /mnt/nfsdir/ //挂载NFS共享目录
[root@web1 ~]# df -hT /mnt/nfsdir/ 配置记录格式:文件夹路径 客户地址1(控制参数.. ..) 客户地址2(.. ..) 。
//确认挂载结果
Filesystem Type Size Used Avail Use% Mounted on
192.168.2.5:/usr/src nfs 50G 15G 33G 31% /mnt/nfsdir
[root@web1 ~]# cd /mnt/nfsdir/ //切换到挂载点
[root@web1 nfsdir]# ls //读取目录列表
debug install.log kernels test.txt
[root@web1 nfsdir]# echo "Write Test." > pc.txt //尝试写入文件失败
-bash: pc.txt: 只读文件系统


!!!! 如果从未授权的客户机访问NFS共享,将会被拒绝。比如从NFS服务器本机尝试访问自己发布的/root共享(只允许192.168.2.100访问),结果如下所示:
[root@proxy ~]# mkdir /root5
[root@proxy ~]# mount 192.168.2.5:/root /root5
mount.nfs: access denied by server while mounting 192.168.2.5:/root
4)设置永久挂载
[root@web1 ~]# vim /etc/fstab
.. ..
192.168.2.5:/usr/src nfsdir nfs default,ro 0 0
192.168.2.5:/root root5 nfs default 0 0

 

 

 

 

 

 

 

 

准备一台Linux服务器,安装ipvsadm软件包,练习使用ipvsadm命令,实现如下功能:

  • 使用命令添加基于TCP一些的集群服务
  • 在集群中添加若干台后端真实服务器
  • 实现同一客户端访问,调度器分配固定服务器
  • 会使用ipvsadm实现规则的增、删、改
  • 保存ipvsadm规则

1.2 方案

安装ipvsadm软件包,关于ipvsadm的用法可以参考man ipvsadm资料。

常用ipvsadm命令语法格式如表-1及表-2所示。

表-1 ipvsadm命令选项

表-2 ipvsadm语法案例

1.3 步骤

实现此案例需要按照如下步骤进行。

步骤一:使用命令增、删、改LVS集群规则

1)创建LVS虚拟集群服务器(算法为加权轮询:wrr)

  1. [root@proxy ~]# yum -y install ipvsadm
  2. [root@proxy ~]# ipvsadm -A -t 192.168.4.5:80 -s wrr
  3. [root@proxy ~]# ipvsadm -Ln
  4. IP Virtual Server version 1.2.1 (size=4096)
  5. Prot LocalAddress:Port Scheduler Flags
  6. -> RemoteAddress:Port Forward Weight ActiveConn InActConn
  7. TCP 192.168.4.5:80 wrr

2)为集群添加若干real server

 
  1. [root@proxy ~]# ipvsadm -a -t 192.168.4.5:80 -r 192.168.2.100 -m -w 1
  2. [root@proxy ~]# ipvsadm -Ln
  3. IP Virtual Server version 1.2.1 (size=4096)
  4. Prot LocalAddress:Port Scheduler Flags
  5. -> RemoteAddress:Port Forward Weight ActiveConn InActConn
  6. TCP 192.168.4.5:80 wrr
  7. -> 192.168.2.100:80 Masq 1 0 0
  8. [root@proxy ~]# ipvsadm -a -t 192.168.4.5:80 -r 192.168.2.200 -m -w 2
  9. [root@proxy ~]# ipvsadm –a -t 192.168.4.5:80 -r 192.168.2.201 -m -w 3
  10. [root@proxy ~]# ipvsadm –a -t 192.168.4.5:80 -r 192.168.2.202 -m -w 4

3)修改集群服务器设置(修改调度器算法,将加权轮询修改为轮询)

 
  1. [root@proxy ~]# ipvsadm -E -t 192.168.4.5:80 -s rr
  2. [root@proxy ~]# ipvsadm -Ln
  3. IP Virtual Server version 1.2.1 (size=4096)
  4. Prot LocalAddress:Port Scheduler Flags
  5. -> RemoteAddress:Port Forward Weight ActiveConn InActConn
  6. TCP 192.168.4.5:80 rr
  7. -> 192.168.2.100:80 Masq 1 0 0
  8. -> 192.168.2.200:80 Masq 2 0 0
  9. -> 192.168.2.201:80 Masq 2 0 0
  10. -> 192.168.2.202:80 Masq 1 0 0

4)修改read server(使用-g选项,将模式改为DR模式)

  1. [root@proxy ~]# ipvsadm -e -t 192.168.4.5:80 -r 192.168.2.202 -g

5)查看LVS状态

  1. [root@proxy ~]# ipvsadm -Ln

6)创建另一个集群(算法为最少连接算法;使用-m选项,设置工作模式为NAT模式)

 
  1. [root@proxy ~]# ipvsadm -A -t 192.168.4.5:3306 -s lc
  2. [root@proxy ~]# ipvsadm -a -t 192.168.4.5:3306 -r 192.168.2.100 -m
  3. [root@proxy ~]# ipvsadm -a -t 192.168.4.5:3306 -r 192.168.2.200 -m

6)永久保存所有规则

  1. [root@proxy ~]# ipvsadm-save -n > /etc/sysconfig/ipvsadm

7)清空所有规则

 
  1. [root@proxy ~]# ipvsadm -C

2 案例2:部署LVS-NAT集群

2.1 问题

使用LVS实现NAT模式的集群调度服务器,为用户提供Web服务:

  • 集群对外公网IP地址为192.168.4.5
  • 调度器内网IP地址为192.168.2.5
  • 真实Web服务器地址分别为192.168.2.100、192.168.2.200
  • 使用加权轮询调度算法,真实服务器权重分别为1和2

2.2 方案

实验拓扑结构主机配置细节如表-3所示。

表-3

使用4台虚拟机,1台作为Director调度器、2台作为Real Server、1台客户端,拓扑结构如图-1所示,注意:web1和web2必须配置网关地址。

图-1

2.3 步骤

实现此案例需要按照如下步骤进行。

步骤一:配置基础环境

1)设置Web服务器(以web1为例)

 
  1. [root@web1 ~]# yum -y install httpd
  2. [root@web1 ~]# echo "192.168.2.100" > /var/www/html/index.html

2)启动Web服务器软件

  1. [root@web1 ~]# systemctl restart httpd

3)关闭防火墙与SELinux

 
  1. [root@web1 ~]# systmctl stop firewalld
  2. [root@web1 ~]# setenforce 0

步骤三:部署LVS-NAT模式调度器

1)确认调度器的路由转发功能(如果已经开启,可以忽略)

  1. [root@proxy ~]# echo 1 > /proc/sys/net/ipv4/ip_forward
  2. [root@proxy ~]# cat /proc/sys/net/ipv4/ip_forward
  3. 1
  4. [root@proxy ~]# echo "net.ipv4.ip_forward = 1" >> /etc/sysctl.conf
  5. #修改配置文件,设置永久规则

2)创建集群服务器

  1. [root@proxy ~]# yum -y install ipvsadm
  2. [root@proxy ~]# ipvsadm -A -t 192.168.4.5:80 -s wrr

2)添加真实服务器

  1. [root@proxy ~]# ipvsadm -a -t 192.168.4.5:80 -r 192.168.2.100 -w 1 -m
  2. [root@proxy ~]# ipvsadm -a -t 192.168.4.5:80 -r 192.168.2.200 -w 1 -m

3)查看规则列表,并保存规则

 
  1. [root@proxy ~]# ipvsadm -Ln
  2. [root@proxy ~]# ipvsadm-save -n > /etc/sysconfig/ipvsadm

步骤四:客户端测试

客户端使用curl命令反复连接http://192.168.4.5,查看访问的页面是否会轮询到不同的后端真实服务器。

3 案例3:部署LVS-DR集群

3.1 问题

使用LVS实现DR模式的集群调度服务器,为用户提供Web服务:

  • 客户端IP地址为192.168.4.10
  • LVS调度器VIP地址为192.168.4.15
  • LVS调度器DIP地址设置为192.168.4.5
  • 真实Web服务器地址分别为192.168.4.100、192.168.4.200
  • 使用加权轮询调度算法,web1的权重为1,web2的权重为2

说明:

CIP是客户端的IP地址;

VIP是对客户端提供服务的IP地址;

RIP是后端服务器的真实IP地址;

DIP是调度器与后端服务器通信的IP地址(VIP必须配置在虚拟接口)。

3.2 方案

使用4台虚拟机,1台作为客户端、1台作为Director调度器、2台作为Real Server,拓扑结构如图-2所示。实验拓扑结构主机配置细节如表-4所示。

图-2

表-4

3.3 步骤

实现此案例需要按照如下步骤进行。

说明:

CIP是客户端的IP地址;

VIP是对客户端提供服务的IP地址;

RIP是后端服务器的真实IP地址;

DIP是调度器与后端服务器通信的IP地址(VIP必须配置在虚拟接口)。

步骤一:配置实验网络环境

1)设置Proxy代理服务器的VIP和DIP

注意:为了防止冲突,VIP必须要配置在网卡的虚拟接口!!!

 
  1. [root@proxy ~]# cd /etc/sysconfig/network-scripts/
  2. [root@proxy ~]# cp ifcfg-eth0{,:0}
  3. [root@proxy ~]# vim ifcfg-eth0
  4. TYPE=Ethernet
  5. BOOTPROTO=none
  6. NAME=eth0
  7. DEVICE=eth0
  8. ONBOOT=yes
  9. IPADDR=192.168.4.5
  10. PREFIX=24
  11. [root@proxy ~]# vim ifcfg-eth0:0
  12. TYPE=Ethernet
  13. BOOTPROTO=none
  14. DEFROUTE=yes
  15. NAME=eth0:0
  16. DEVICE=eth0:0
  17. ONBOOT=yes
  18. IPADDR=192.168.4.15
  19. PREFIX=24
  20. [root@proxy ~]# systemctl restart network

2)设置Web1服务器网络参数

 
  1. [root@web1 ~]# nmcli connection modify eth0 ipv4.method manual \
  2. ipv4.addresses 192.168.4.100/24 connection.autoconnect yes
  3. [root@web1 ~]# nmcli connection up eth0

接下来给web1配置VIP地址。

注意:这里的子网掩码必须是32(也就是全255),网络地址与IP地址一样,广播地址与IP地址也一样。

 
  1. [root@web1 ~]# cd /etc/sysconfig/network-scripts/
  2. [root@web1 ~]# cp ifcfg-lo{,:0}
  3. [root@web1 ~]# vim ifcfg-lo:0
  4. DEVICE=lo:0
  5. IPADDR=192.168.4.15
  6. NETMASK=255.255.255.255
  7. NETWORK=192.168.4.15
  8. BROADCAST=192.168.4.15
  9. ONBOOT=yes
  10. NAME=lo:0

防止地址冲突的问题:

这里因为web1也配置与代理一样的VIP地址,默认肯定会出现地址冲突;

sysctl.conf文件写入这下面四行的主要目的就是访问192.168.4.15的数据包,只有调度器会响应,其他主机都不做任何响应,这样防止地址冲突的问题。

 
  1. [root@web1 ~]# vim /etc/sysctl.conf
  2. #手动写入如下4行内容
  3. net.ipv4.conf.all.arp_ignore = 1
  4. net.ipv4.conf.lo.arp_ignore = 1
  5. net.ipv4.conf.lo.arp_announce = 2
  6. net.ipv4.conf.all.arp_announce = 2
  7. #当有arp广播问谁是192.168.4.15时,本机忽略该ARP广播,不做任何回应
  8. #本机不要向外宣告自己的lo回环地址是192.168.4.15
  9. [root@web1 ~]# sysctl -p

重启网络服务,设置防火墙与SELinux

 
  1. [root@web1 ~]# systemctl restart network
  2. [root@web1 ~]# ifconfig
  3. [root@web1 ~]# systemctl stop firewalld
  4. [root@web1 ~]# setenforce 0

3)设置Web2服务器网络参数

 
  1. [root@web2 ~]# nmcli connection modify eth0 ipv4.method manual \
  2. ipv4.addresses 192.168.4.200/24 connection.autoconnect yes
  3. [root@web2 ~]# nmcli connection up eth0

接下来给web2配置VIP地址

注意:这里的子网掩码必须是32(也就是全255),网络地址与IP地址一样,广播地址与IP地址也一样。

 
  1. [root@web2 ~]# cd /etc/sysconfig/network-scripts/
  2. [root@web2 ~]# cp ifcfg-lo{,:0}
  3. [root@web2 ~]# vim ifcfg-lo:0
  4. DEVICE=lo:0
  5. IPADDR=192.168.4.15
  6. NETMASK=255.255.255.255
  7. NETWORK=192.168.4.15
  8. BROADCAST=192.168.4.15
  9. ONBOOT=yes
  10. NAME=lo:0

防止地址冲突的问题:

这里因为web1也配置与代理一样的VIP地址,默认肯定会出现地址冲突;

sysctl.conf文件写入这下面四行的主要目的就是访问192.168.4.15的数据包,只有调度器会响应,其他主机都不做任何响应,这样防止地址冲突的问题。

 
  1. [root@web2 ~]# vim /etc/sysctl.conf
  2. #手动写入如下4行内容
  3. net.ipv4.conf.all.arp_ignore = 1
  4. net.ipv4.conf.lo.arp_ignore = 1
  5. net.ipv4.conf.lo.arp_announce = 2
  6. net.ipv4.conf.all.arp_announce = 2
  7. #当有arp广播问谁是192.168.4.15时,本机忽略该ARP广播,不做任何回应
  8. #本机不要向外宣告自己的lo回环地址是192.168.4.15
  9. [root@web2 ~]# sysctl -p

重启网络服务,设置防火墙与SELinux

  1. [root@web2 ~]# systemctl restart network
  2. [root@web2 ~]# ifconfig
  3. [root@web2 ~]# systemctl stop firewalld
  4. [root@web2 ~]# setenforce 0

步骤二:配置后端Web服务器

1)自定义Web页面

 
  1. [root@web1 ~]# yum -y install httpd
  2. [root@web1 ~]# echo "192.168.4.100" > /var/www/html/index.html
  3. [root@web2 ~]# yum -y install httpd
  4. [root@web2 ~]# echo "192.168.4.200" > /var/www/html/index.html

2)启动Web服务器软件

  1. [root@web1 ~]# systemctl restart httpd
  2. [root@web2 ~]# systemctl restart httpd

步骤三:proxy调度器安装软件并部署LVS-DR模式调度器

1)安装软件(如果已经安装,此步骤可以忽略)

 
  1. [root@proxy ~]# yum -y install ipvsadm

2)清理之前实验的规则,创建新的集群服务器规则

 
  1. [root@proxy ~]# ipvsadm -C #清空所有规则
  2. [root@proxy ~]# ipvsadm -A -t 192.168.4.15:80 -s wrr

3)添加真实服务器(-g参数设置LVS工作模式为DR模式,-w设置权重)

 
  1. [root@proxy ~]# ipvsadm -a -t 192.168.4.15:80 -r 192.168.4.100 -g -w 1
  2. [root@proxy ~]# ipvsadm -a -t 192.168.4.15:80 -r 192.168.4.200 -g -w 1

4)查看规则列表,并保存规则

 
  1. [root@proxy ~]# ipvsadm -Ln
  2. TCP 192.168.4.15:80 wrr
  3. -> 192.168.4.100:80 Route 1 0 0
  4. -> 192.168.4.200:80 Route 2 0 0
  5. [root@proxy ~]# ipvsadm-save -n > /etc/sysconfig/ipvsadm

步骤四:客户端测试

客户端使用curl命令反复连接http://192.168.4.15,查看访问的页面是否会轮询到不同的后端真实服务器。

扩展知识:默认LVS不带健康检查功能,需要自己手动编写动态检测脚本,实现该功能:(参考脚本如下,仅供参考)

 
  1. [root@proxy ~]# vim check.sh
  2. #!/bin/bash
  3. VIP=192.168.4.15:80
  4. RIP1=192.168.4.100
  5. RIP2=192.168.4.200
  6. while :
  7. do
  8. for IP in $RIP1 $RIP2
  9. do
  10.      curl -s http://$IP &>/dev/vnull
  11. if [ $? -eq 0 ];then
  12. ipvsadm -Ln |grep -q $IP || ipvsadm -a -t $VIP -r $IP
  13. else
  14. ipvsadm -Ln |grep -q $IP && ipvsadm -d -t $VIP -r $IP
  15. fi
  16. done
  17. sleep 1
  18. done

posted on 2019-01-11 19:30  陈钇圻  阅读(98)  评论(0)    收藏  举报

导航