LVS + Keepalived + Nginx基于DR模式构建高可用方案

在大型网站中一般服务端会做集群,同时利用负载均衡器做负载均衡。这样有利于将大量的请求分散到各个服务器上,提升网站的响应速度。当然为了解决单点故障的问题,还会做热备份方案。这里演示利用LVS做负载均衡器,同时利用Keepalived保证其高可用,基于LVS的DR模式构建Nginx集群。

1、环境准备

各个软件及其版本信息如下:

软件 版本
Centos系统   Linux release 7.3.1611 (Core)  
Nginx   1.16.0  
LVS   ipvsadm-1.27-7.el7.x86_64  
Keepalived   keepalived.x86_64 0:1.3.5-8.el7_6  

节点分配及角色如下:

节点 角色
192.168.208.154   lvs master  
192.168.208.155   lvs slave  
192.168.208.150   nginx1  
192.168.208.151   nginx2  

同时特别注意这里设置的VIP地址为:192.168.208.100,VIP也即虚拟的IP地址,即当外部请求所访问的IP地址。

2、部署架构

基于上述的环境,部署的架构如下:

LVS + Keepalived + Nginx基于DR模式构建高可用方案

特别注意:

由于是采用DR模式,也即当用户请求发送到VIP时,LVS会根据所设置的负载均衡算法将请求转发到具体的Nginx服务器(Real Server)上,而当具体的Nginx服务器处理完后是直接将结果返回给用户。所以在具体的Nginx服务器是要设置回环的IP,即在lo网卡上设置VIP的地址。

3、部署程序

(1)、首先在lvs master节点和slave节点安装lvs和keepalived

yum install ipvsadm yum install keepalived

(2)、在nginx1和nginx2节点上安装nginx:

# 添加nginx的yum源 rpm -ivh # 安装 yum install nginx

安装完成nginx后,编辑其默认页面,加上特定的信息,这样才能判断请求到底是哪个nginx处理的,即:

vi /usr/share/nginx/html/index.html

对于nginx1加上150字样,nginx2加上151字样,即:

当直接访问nginx1时,效果为:

LVS + Keepalived + Nginx基于DR模式构建高可用方案

当直接访问nginx2时,效果为:

LVS + Keepalived + Nginx基于DR模式构建高可用方案

(3)、在lvs master节点和lvs slave节点配置keepalived信息:

首先配置lvs master节点:

编辑如下文件:

vi /etc/keepalived/keepalived.conf

内容为:

! Configuration File for keepalived global_defs { # 这里将这些邮件设置的相关信息都注释掉了 # notification_email { # acassen@firewall.loc # failover@firewall.loc # sysadmin@firewall.loc # } # notification_email_from Alexandre.Cassen@firewall.loc # smtp_server 192.168.200.1 # smtp_connect_timeout 30 # router_id是keepalived的一个标识,最好不同的keepalived配置成不一样 router_id LVS_DEVEL # vrrp_skip_check_adv_addr # vrrp_strict # vrrp_garp_interval 0 # vrrp_gna_interval 0 } vrrp_instance VI_1 { # MASTER表示是主节点,备份节点是BACKUP state MASTER # 网卡名称,这个不同的服务器,可能有所不同 interface ens33 # 路由标识,MASTER和BACKUP节点的该值要保持一致 virtual_router_id 51 # 优先级,MASTER节点的值必须大于BACKUP的值 priority 100 # MASTER与BACKUP同步的时间间隔,单位为秒 advert_int 1 # lvs对应的真实IP mcast_src_ip=192.168.208.154 authentication { auth_type PASS auth_pass 1111 } # 虚拟IP的址 virtual_ipaddress { 192.168.208.100 } } virtual_server 192.168.208.100 80 { # 健康检查的时间,单位为秒 delay_loop 6 # 负载调度算法,这里设置为rr,即轮询算法 lb_algo rr # 设置DR模式 lb_kind DR # 虚拟地址的子网掩码 nat_mask 255.255.255.0 # 会话保持时间,单位为秒 persistence_timeout 50 protocol TCP # 配置真实服务器信息 real_server 192.168.208.150 80 { # 节点的权值 weight 1 TCP_CHECK { # 超时时间 connect_timeout 3 # 重试次数 nb_get_retry 3 # 重试间隔 delay_before_retry 3 } } real_server 192.168.208.151 80 { weight 1 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 } } }

基于上述的配置,那么lvs slave的配置如下:

! Configuration File for keepalived global_defs { # notification_email { # acassen@firewall.loc # failover@firewall.loc # sysadmin@firewall.loc # } # notification_email_from Alexandre.Cassen@firewall.loc # smtp_server 192.168.200.1 # smtp_connect_timeout 30 router_id LVS_DEVEL_SLAVE # vrrp_skip_check_adv_addr # vrrp_strict # vrrp_garp_interval 0 # vrrp_gna_interval 0 } vrrp_instance VI_1 { state BACKUP interface ens33 virtual_router_id 51 priority 99 advert_int 1 mcast_src_ip=192.168.208.155 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.208.100 } } virtual_server 192.168.208.100 80 { delay_loop 6 lb_algo rr lb_kind DR nat_mask 255.255.255.0 persistence_timeout 50 protocol TCP real_server 192.168.208.150 80 { weight 1 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 } } real_server 192.168.208.151 80 { weight 1 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 } } }

分别启动lvs master和slave的keepalived,并且设置为开机自启动:

systemctl start keepalived systemctl enable keepalived

此时在lvs master节点查看IP地址情况:

ip a

结果为:

LVS + Keepalived + Nginx基于DR模式构建高可用方案

说明此时VIP在master节点上的ens33网卡上生成好了。

在lvs master节点查看路由转发情况:

ipvsadm -Ln

结果为:

LVS + Keepalived + Nginx基于DR模式构建高可用方案

这个结果跟预期的是一样的。

(4)、关闭lvs master和slave节点上的访火墙:

systemctl stop firewalld systemctl disable firewalld

(5)、在nginx服务器上设置回环IP:

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/wspsfd.html