Haproxy+keepalived

it2025-07-25  8

Haproxy+keepalived

主机ip地址角色ha1192.168.1.10haproxy+keepalivedha2192.168.1.20haproxy+keepalived

安装keepalived

两台主机都需要操作

yum install -y keepalived yum install -y keepalived

关闭防火墙以及selinux

systemctl stop firewalld systemctl diables firewalld sed -i '/SELINUX/s/enforcing/disabled/' /etc/sysconfig/selinux setenfroce 0

keepalived 只能做到对网络故障和 Keepalived 本身的监控,即当出现网络故障或者 keepalived 本身出现问题时,才会进行切换。但是在工作中,有业务服务停止而 Keepalived 服务器还在工作的情况,这就会导致用户访问的 VIP 无法找到对应的服务。

自定义检测haproxy脚本

cat >> /etc/keepalived/check_ha.sh <<EOF #!/bin/bash while true do if [ `ps -C haproxy --no-header |wc -l` -eq 0 ];then systemctl stop keepalived fi sleep 5 done EOF

自定义监控端口脚本

#!/bin/bash #keepalived 监控端口脚本 #使用方法: #在keepalived的配置文件中 #vrrp_script check_port { #创建一个vrrp_script脚本,检查配置 # script "/etc/keepalived/check_port.sh 端口号" #配置监听的端口 # interval 2 #检查脚本的频率,单位(秒) #} CHK_PORT=$1 if [ -n "$CHK_PORT" ];then PORT_PROCESS=`ss -lnt|grep $CHK_PORT|wc -l` if [ $PORT_PROCESS -eq 0 ];then echo "Port $CHK_PORT Is Not Used,End." exit 1 fi else echo "Check Port Cant Be Empty!" fi

部署keepalived服务

ha1

cat >> /etc/keepalived/keepalived.conf <<EOF global_defs { router_id ha1 #12行,设置路由ID号(实验需要修改) vrrp_iptables #13行,清除防火墙的拦截规则(实验需要修改,手动添加该行) } vrrp_script chk_nginx { script "/etc/keepalived/check_ha.sh" interval 2 weight -20 } vrrp_instance VI_1 { state MASTER #21行,主服务器为MASTER(备服务器需要修改为BACKUP) interface eth0 #22行,VIP配在哪个网卡(实验需要修改,不能照抄网卡名) virtual_router_id 51 #23行,主备服务器VRID号必须一致 priority 100 #24行,服务器优先级,优先级高优先获取VIP advert_int 1 nopreempt #非抢占式 ,当主节点挂了以后,从节点vip飘到从上,主节点恢复以后,不主动飘回主,需要手动重启 authentication { auth_type pass auth_pass 1111 } track_script { chk_nginx } virtual_ipaddress { #30~32行,谁是主服务器谁获得该VIP(实验需要修改) 192.168.1.100/24 } } EOF

ha2

cat >> /etc/keepalived/keepalived.conf <<EOF global_defs { router_id ha2 #12行,设置路由ID号(实验需要修改) vrrp_iptables #13行,清除防火墙的拦截规则(实验需要修改,手动添加该行) } vrrp_script chk_nginx { script "/etc/keepalived/check_ha.sh" interval 2 weight -20 } vrrp_instance VI_1 { state BACKUP #21行,主服务器为MASTER(备服务器需要修改为BACKUP) interface eth0 #22行,VIP配在哪个网卡(实验需要修改,不能照抄网卡名) virtual_router_id 51 #23行,主备服务器VRID号必须一致 priority 80 #24行,服务器优先级,优先级高优先获取VIP advert_int 1 nopreempt #非抢占式 ,当主节点挂了以后,从节点vip飘到从上,主节点恢复以后,不主动飘回主,需要手动重启 authentication { auth_type pass auth_pass 1111 } track_script { chk_nginx } virtual_ipaddress { #30~32行,谁是主服务器谁获得该VIP(实验需要修改) 192.168.1.100/24 } } EOF

起服

systemctl enable --now keepalived

安装haproxy

两台都需要安装

yum -y install haproxy

修改配置文件

cat >> /etc/haproxy/haproxy.cfg <<EOF global log 127.0.0.1 local2 ##[err warning info debug] pidfile /var/run/haproxy.pid ##haproxy的pid存放路径 user haproxy group haproxy daemon ##以后台进程的方式启动服务 defaults mode http ##默认的模式mode { tcp|http|health } option dontlognull ##不记录健康检查的日志信息 option httpclose ##每次请求完毕后主动关闭http通道 option httplog ##日志类别http日志格式 option redispatch ##当某个服务器挂掉后强制定向到其他健康服务器 timeout client 300000 ##客户端连接超时,默认毫秒,也可以加时间单位 timeout server 300000 ##服务器连接超时 maxconn 3000 ##最大连接数 retries 3 ##3次连接失败就认为服务不可用,也可以通过后面设置 listen websrv-rewrite 0.0.0.0:80 balance roundrobin server web1 192.168.1.40:80 check inter 2000 rise 2 fall 5 server web2 192.168.1.50:80 check inter 2000 rise 2 fall 5 #定义集群,listen后面的名称任意,端口为80 #balance指定调度算法为轮询(不能用简写的rr) #server指定后端真实服务器,web1和web2的名称可以任意 #check代表健康检查,inter设定健康检查的时间间隔,rise定义成功次数,fall定义失败次数 listen stats *:1080 #监听端口 stats refresh 30s #统计页面自动刷新时间 stats uri /stats #统计页面url stats realm Haproxy Manager #进入管理解面查看状态信息 stats auth admin:admin #统计页面用户名和密码设置 EOF

起服

systemctl enable --now haproxy
最新回复(0)