ngnix 负载均衡
反向代理与负载均衡区别
反向代理:客户端请求过来后,代替客户端去后端服务请求,把后端返回内容反馈给客户端
负载均衡:转发客户端的请求,再把后端服务返回转发到客户端
常见基本配置
upstream 配置
http {
upstream mysvr {
server 192.168.10.1:3333;
server 192.168.10.2:3333;
}
server {
....
location ~*^.+$ {
proxy_pass http://mysvr; #请求转向mysvr 定义的服务器列表
}
}
}
1、热备:有2台服务器,当一台服务器发生事故时,才启用第二台服务器给提供服务。服务器处理请求的一直是A,如果A 故障那么请求就转向B
upstream mysvr {
server 127.0.0.1:5678;
server 192.168.10.1:3356 backup; #热备
}
2、轮询:nginx默认就是轮询其权重都默认为1,服务器处理请求的顺序:ABAB...
upstream mysvr {
server 127.0.0.1:5678;
server 192.168.10.1:3309;
}
3、加权轮询:跟据配置的权重的大小而分发给不同服务器不同数量的请求。如果不设置,则默认为1。下面服务器的请求顺序为:ABBABBABBABBABB....
upstream mysvr {
server 127.0.0.1:5678 weight=1;
server 192.168.10.1:1233 weight=2;
}
4、ip_hash:nginx会让相同的客户端ip请求相同的服务器。
upstream mysvr {
server 127.0.0.1:5678;
server 192.168.10.1:1233;
ip_hash;
}
注:ip_hash 保证同一个客户端访问后端同一个服务端,解决了session不共享问题,避免出现客户登录后再次要求登录问题,但是此方式有弊端,就是造成负载不均衡。
替代的解决方式就是在后端web服务后搭建memcached/redis 把那些session 相关信息放在缓存中这样不采用ip_hash 也可以保证session共享。
5、关于nginx负载均衡配置的几个状态参数讲解。
-
down,表示当前的server暂时不参与负载均衡。
-
backup,预留的备份机器。当其他所有的非backup机器出现故障或者忙的时候,才会请求backup机器,因此这台机器的压力最轻。
-
max_fails,允许请求失败的次数,默认为1。当超过最大次数时,返回proxy_next_upstream 模块定义的错误。
-
fail_timeout,在经历了max_fails次失败后,暂停服务的时间。max_fails可以和fail_timeout一起使用。
upstream mysvr {
server 127.0.0.1:5678 weight=2 max_fails=2 fail_timeout=2;
server 192.168.10.1:1233 weight=1 max_fails=2 fail_timeout=1;
}
其他配置项介绍
include mime.types; #文件扩展名与文件类型映射表
default_type application/octet-stream; #默认文件类型,默认为text/plain
#access_log off; #取消服务日志
log_format myFormat '$remote_addr–$remote_user [$time_local] $request $status $body_bytes_sent $http_referer $http_user_agent $http_x_forwarded_for'; #自定义格式
access_log log/access.log myFormat; #combined为日志格式的默认值
sendfile on; #允许sendfile方式传输文件,默认为off,可以在http块,server块,location块。
sendfile_max_chunk 100k; #每个进程每次调用传输数量不能大于设定的值,默认为0,即不设上限。
keepalive_timeout 65; #连接超时时间,默认为75s,可以在http,server,location块。
proxy_connect_timeout 1; #nginx服务器与被代理的服务器建立连接的超时时间,默认60秒
proxy_read_timeout 1; #nginx服务器想被代理服务器组发出read请求后,等待响应的超时间,默认为60秒。
proxy_send_timeout 1; #nginx服务器想被代理服务器组发出write请求后,等待响应的超时间,默认为60秒。
proxy_http_version 1.0 ; #Nginx服务器提供代理服务的http协议版本1.0,1.1,默认设置为1.0版本。
#proxy_method get; #支持客户端的请求方法。post/get;
proxy_ignore_client_abort on; #客户端断网时,nginx服务器是否终端对被代理服务器的请求。默认为off。
proxy_ignore_headers "Expires" "Set-Cookie"; #Nginx服务器不处理设置的http相应投中的头域,这里空格隔开可以设置多个。
proxy_intercept_errors on; #如果被代理服务器返回的状态码为400或者大于400,设置的error_page配置起作用。默认为off。
proxy_headers_hash_max_size 1024; #存放http报文头的哈希表容量上限,默认为512个字符。
proxy_headers_hash_bucket_size 128; #nginx服务器申请存放http报文头的哈希表容量大小。默认为64个字符。
proxy_next_upstream timeout; #反向代理upstream中设置的服务器组,出现故障时,被代理服务器返回的状态值。error|timeout|invalid_header|http_500|http_502|http_503|http_504|http_404|off
#proxy_ssl_session_reuse on; #默认为on,如果我们在错误日志中发现“SSL3_GET_FINSHED:digest check failed”的情况时,可以将该指令设置为off。
nginx 负载均衡的高可用架构
采用nginx+keepalived,两个nginx 上部署keepalived 通过vip 来访问nginx负载
为了同时让两台nginx 代理都对外提供访问,既保证高可用又分担了负载。可以采用方式如下:
两台LB配置两个VIP针对不同的地址解析都分别两个VIP上,两个LB上的keepalived 针对两个VIP 互为主备,这样就实现了客户端访问负载的均衡访问,而不是访问一台,另一台只是主挂了在接管。
两台LB安装keepalived 配置两套VRRP_INSTANCE_ID 即可。
keepalived 脑裂问题
产生原因:物理网线断链,防火墙策略,虚拟路由实例组不在一个组,配置有问题。
防范:防火墙策略注意
心跳线
监控如果vip 跳转报警
关于一台代理服务器nginx 针对两个VIP监听同一个80端口冲突问题
解决:echo 1 > /proc/sys/net/ipv4/ip_nonlocal_bind (临时解决)
vi /etc/sysctl.conf (永久解决)
sysctl -p