MHA高可用配置
一、案例知识点1.1、什么是MHA1.2、MHA的组成1.3、为什么使用MHA?1.4、MHA特点
二、MHA案例2.1、实验拓扑2.2、实验环境2.3、实验目的2.4、实验过程注意2.4.1、安装 MySQL 数据库2.4.2、配置 MySQL的主从复制2.4.3、安装 MHA 软件
2.5、验证
一、案例知识点
1.1、什么是MHA
日本DeNA公司 youshimaton(现就职于 Facebook公司)开发一套优秀的作为MySQL高可用性环境下故障切换和主从提升的高可用软件支持故障切换在MySQL故障切换过程中,MHA能做到在0~30秒之内自动完成数据库的故障切换操作,并且在进行故障切换的过程中,MHA能在最大程度上保证数据的一致性,以达到真正意义上的高可用MHA还提供在线主库切换的功能,能够安全地切换当前运行的主库到一个新的主库中(通过将从库提升为主库),大概0.5-2秒内即可完成
1.2、MHA的组成
MHA Manager (管理节点)MHA Node (数据节点)注意:Manager承载在Node上,需要先装Node
1.3、为什么使用MHA?
传统mysql主从架构存在单点故障的问题
传统架构中,只有一个mysql主服务器,所以当出现单点故障的时候,整个服务器群集就会瘫痪掉为了解决这种情况,我们需要在主服务器宕机的时候,重新建立一台主服务器,负责监控等工作
当我们做MySQL的读写分离与主从复制时,一台主服务器下面连着多台从服务器,如果当主服务器挂掉之后,就会出现单点故障的问题,所以我们需要用到 MHA 高可用的故障切换。
1.4、MHA特点
自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失使用半同步复制,可以大大降低数据丢失的风险目前MHA支持一主多从架构,最少三台服务,即一主两从
二、MHA案例
2.1、实验拓扑
2.2、实验环境
主机IP地址操作系统
mysql1(主)20.0.0.23centos-7.6-x86_64mysql2(从/主备)20.0.0.24centos-7.6-x86_64mysql3(从)20.0.0.25centos-7.6-x86_64Manger20.0.0.22centos-7.6-x86_64
2.3、实验目的
通过MHA监控MySQL数据库,在故障时自动进行切换,不影响业务当主库失效时,备选数据库库自动成为主库
2.4、实验过程
注意
因为操作系统是centos7,所以要下载MHA 0.57版本,MHA对于版本要求很高!
2.4.1、安装 MySQL 数据库
三台数据库服务器需要先安装MySQL数据库,如果不会安装可以看一下我之前的博客 博客地址:安装数据库博客地址
2.4.2、配置 MySQL的主从复制
安装完数据库之后做网络
mysql 1:
[root@mysql1 ~
]
20.0.0.23 mysql1
20.0.0.24 mysql2
20.0.0.25 mysql3
==》》 wq
mysql 2:
[root@mysql2 ~
]
20.0.0.23 mysql1
20.0.0.24 mysql2
20.0.0.25 mysql3
==》》 wq
mysql 3:
[root@mysql3 ~
]
20.0.0.23 mysql1
20.0.0.24 mysql2
20.0.0.25 mysql3
==》》 wq
每台数据库都进行 ping 测试一下
[root@mysql2 ~
]
PING mysql1
(20.0.0.23
) 56
(84
) bytes of data.
64 bytes from mysql1
(20.0.0.23
): icmp_seq
=1 ttl
=64 time
=0.293 ms
64 bytes from mysql1
(20.0.0.23
): icmp_seq
=2 ttl
=64 time
=0.383 ms
[root@mysql1 cmake-2.8.6
]
PING mysql2
(20.0.0.24
) 56
(84
) bytes of data.
64 bytes from mysql2
(20.0.0.24
): icmp_seq
=1 ttl
=64 time
=1.17 ms
64 bytes from mysql2
(20.0.0.24
): icmp_seq
=2 ttl
=64 time
=0.392 ms
[root@mysql1 cmake-2.8.6
]
PING mysql3
(20.0.0.25
) 56
(84
) bytes of data.
64 bytes from mysql3
(20.0.0.25
): icmp_seq
=1 ttl
=64 time
=0.317 ms
64 bytes from mysql3
(20.0.0.25
): icmp_seq
=2 ttl
=64 time
=0.338 ms
修改 Master 的主配置文件/etc/my.cnf 文件,三台服务器的 server-id 不能一样
mysql 1:
[root@Mysql1 ~
]
[mysqld
]
server-id
= 1
log_bin
= master-bin
log-slave-updates
= true
==》》wq
[root@mysql1 ~
]
mysql 2:
配置从服务器1:
在/etc/my.cnf 中修改或者增加下面内容。
[root@Mysql2 ~
]
server-id
= 2
log_bin
= master-bin
relay-log
= relay-log-bin
relay-log-index
= slave-relay-bin.index
==》》wq
[root@mysql1 ~
]
mysql 3:
配置从服务器2:
在/etc/my.cnf 中修改或者增加下面内容。
[root@Mysql2 ~
]
server-id
= 3
log_bin
= master-bin
relay-log
= relay-log-bin
relay-log-index
= slave-relay-bin.index
==》》wq
[root@mysql1 ~
]
Mysql1、Mysql2、Mysql3 分别做两个软链接
[root@Mysql1 ~
]
[root@Mysql1 ~
]
配置 MySQL 一主两从
① MySQL 主从配置相对比较简单。需要注意的是授权。步骤如下:
在所有数据库节点上授权两个用户,一个是从库同步使用,另外一个是 manager 使用。
mysql
> grant replication slave on *.* to
'myslave'@
'20.0.0.%' identified by
'123';
mysql
> grant all privileges on *.* to
'mha'@
'20.0.0.%' identified by
'manager';
mysql
> flush privileges
;
② 在 Mysql1 主机上查看二进制文件和同步点
mysql
> show master status
;
+-------------------+----------+--------------+------------------+-------------------+
| File
| Position
| Binlog_Do_DB
| Binlog_Ignore_DB
| Executed_Gtid_Set
|
+-------------------+----------+--------------+------------------+-------------------+
| master-bin.000001
| 895
| | | |
+-------------------+----------+--------------+------------------+-------------------+
③ 接下来在 Mysql2 和 Mysql3 分别执行同步。
mysql
> change master to master_host
='20.0.0.23',master_user
='myslave',master_password
='123',master_log_file
='master-bin.000001',master_log_pos
=895
;
mysql
> start slave
;
④ 查看 IO 和 SQL 线程都是 yes 代表同步是否正常。
分别在mysql 2 和 mysql 3 查看
mysql
> show slave status\G
;
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
⑤ 必须设置两个从库为只读模式:
mysql
> set global read_only
=1
;
mysql
> flush privileges
;
2.4.3、安装 MHA 软件
创建现网源(如果当时YUM仓库安装的是本地源的话,必须要创建现网源)
[root@mysql1 ~
]
[root@mysql1 yum.repos.d
]
[root@mysql1 yum.repos.d
]
total 8
drwxr-xr-x. 2 root root 163 Oct 21 02:21 backup
-rw-r--r--. 1 root root 1664 Nov 23 2018 CentOS-Base.repo
-rw-r--r--. 1 root root 116 Sep 13 21:35 local.repo
[root@mysql1 yum.repos.d
]
[root@mysql1 yum.repos.d
]
所有4台服务器上都安装 MHA 依赖的环境,首先安装 epel 源。
[root@MHA-manager ~
]
yum
install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN
MHA 软件包对于每个操作系统版本不一样,这里 CentOS7.4 必须选择 0.57 版本, 在<注意:所有服务器>上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件, 因为 manager 依赖 node 组件,下面都是在 Mysql1 上操作演示安装 node 组件。
[root@Mysql1 ~
]
[root@Mysql1 ~
]
[root@mysql1 mha4mysql-node-0.57
]
AUTHORS COPYING inc Makefile.PL META.yml rpm
bin debian lib MANIFEST README t
[root@Mysql1 mha4mysql-node-0.57
]
[root@Mysql1 mha4mysql-node-0.57
]
在 MHA-manager 上安装 manager 组件(!注意:一定要先安装node 组件才能安装manager 组件)
[root@MHA-manager ~
]
[root@MHA-manager ~
]
[root@localhost mha4mysql-manager-0.57
]
AUTHORS COPYING inc Makefile.PL META.yml rpm t
bin debian lib MANIFEST README samples tests
[root@MHA-manager mha4MHA-manager-0.57
]
[root@MHA-manager mha4MHA-manager-0.57
]
配置无密码认证
1. 在 manager 上配置到所有数据库节点的无密码认证
[root@MHA-manager ~
]
[root@MHA-manager ~
]
[root@MHA-manager ~
]
[root@MHA-manager ~
]
2. 在 Mysql1 上配置到数据库节点Mysql2和Mysql3的无密码认证
[root@Mysql1 ~
]
[root@Mysql1 ~
]
[root@Mysql1 ~
]
3. 在 Mysql2 上配置到数据库节点Mysql1和Mysql3的无密码认证
[root@Mysql2 ~
]
[root@Mysql2 ~
]
[root@Mysql2 ~
]
4. 在 Mysql3 上配置到数据库节点Mysql1和Mysql2的无密码认证
[root@Mysql3 ~
]
[root@Mysql3 ~
]
[root@Mysql3 ~
]
配置 MHA
在 manager 节点上复制相关脚本到/usr/local/bin 目录。
[root@MHA-manager ~
]
//拷贝后会有四个执行文件
[root@atlas ~
]
总用量 32
-rwxr-xr-x 1 mysql mysql 3648 5 月 31 2015 master_ip_failover
-rwxr-xr-x 1 mysql mysql 9872 5 月 25 09:07 master_ip_online_change
-rwxr-xr-x 1 mysql mysql 11867 5 月 31 2015 power_manager
-rwxr-xr-x 1 mysql mysql 1360 5 月 31 2015 send_report
复制上述的自动切换时 VIP 管理的脚本到/usr/local/bin 目录,这里使用脚本管理 VIP,
[root@MHA-manager ~
]
修改内容如下:(删除原有内容,直接复制)
[root@MHA-manager ~
]
use strict
;
use warnings FATAL
=> 'all';
use Getopt::Long
;
my
(
$command,
$ssh_user,
$orig_master_host,
$orig_master_ip,
$orig_master_port,
$new_master_host,
$new_master_ip,
$new_master_port
);
my
$vip = '192.168.195.200';
my
$brdc = '192.168.195.255';
my
$ifdev = 'ens33';
my
$key = '1';
my
$ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";
my
$ssh_stop_vip = "/sbin/ifconfig ens33:$key down";
my
$exit_code = 0
;
GetOptions
(
'command=s' => \
$command,
'ssh_user=s' => \
$ssh_user,
'orig_master_host=s' => \
$orig_master_host,
'orig_master_ip=s' => \
$orig_master_ip,
'orig_master_port=i' => \
$orig_master_port,
'new_master_host=s' => \
$new_master_host,
'new_master_ip=s' => \
$new_master_ip,
'new_master_port=i' => \
$new_master_port,
);
exit &main
();
sub main
{
print
"\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if ( $command eq
"stop" || $command eq
"stopssh" ) {
my
$exit_code = 1
;
eval {
print
"Disabling the VIP on old master: $orig_master_host \n";
&stop_vip
();
$exit_code = 0
;
};
if ($@) {
warn
"Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif
( $command eq
"start" ) {
my
$exit_code = 10
;
eval {
print
"Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip
();
$exit_code = 0
;
};
if ($@) {
warn
$@;
exit $exit_code;
}
exit $exit_code;
}
elsif
( $command eq
"status" ) {
print
"Checking the Status of the script.. OK \n";
exit 0
;
}
else {
&usage
();
exit 1
;
}
}
sub start_vip
() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
sub stop_vip
() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub usage
{
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
①、:% s/^
②、 第一行开头加上
③、my
$vip = '20.0.0.200';
my
$brdc = '20.0.0.255';
创建 MHA 软件目录并拷贝配置文件
[root@MHA-manager ~
]
[root@MHA-manager ~
]
[root@MHA-manager ~
]
[server default
]
manager_log
=/var/log/masterha/app1/manager.log
manager_workdir
=/var/log/masterha/app1
master_binlog_dir
=/usr/local/mysql/data
master_ip_failover_script
=/usr/local/bin/master_ip_failover
master_ip_online_change_script
=/usr/local/bin/master_ip_online_change
password
=manager
ping_interval
=1
remote_workdir
=/tmp
repl_password
=123
repl_user
=myslave
secondary_check_script
=/usr/local/bin/masterha_secondary_check -s 20.0.0.24 -s 20.0.0.25
shutdown_script
=""
ssh_user
=root
user
=mha
[server1
]
hostname
=20.0.0.23
port
=3306
[server2
]
candidate_master
=1
check_repl_delay
=0
hostname
=20.0.0.24
port
=3306
[server3
]
hostname
=20.0.0.25
port
=3306
测试 ssh 无密码认证,如果正常最后会输出 successfully,如下所示。
[root@MHA-manager ~
]
Tue Nov 26 23:09:46 2019 -
[debug
] Connecting via SSH from root@192.168.195.131
(192.168.195.131:22
) to root@192.168.195.130
(192.168.195.130:22
)..
Tue Nov 26 23:09:47 2019 -
[debug
] ok.
Tue Nov 26 23:09:47 2019 -
[info
] All SSH connection tests passed successfully.
测试健康状态
root@MHA-manager ~
]
Checking the Status of the script
.. OK
Tue Nov 26 23:10:29 2019 -
[info
] OK.
Tue Nov 26 23:10:29 2019 -
[warning
] shutdown_script is not defined.
Tue Nov 26 23:10:29 2019 -
[info
] Got
exit code 0
(Not master dead
).
MySQL Replication Health is OK.
注意:第一次配置需要去主服务器master上手动开启虚拟IP
[root@Mysql1 ~
]
[root@Mysql1 ~
]
如果是最小化安装需要先安装网络组件
[root@mysql1 ~
]
[root@Mysql1 ~
]
ens33:1: flags
=4163
<UP,BROADCAST,RUNNING,MULTICAST
> mtu 1500
inet 20.0.0.200 netmask 255.0.0.0 broadcast 20.255.255.255
ether 00:0c:29:a4:3e:ec txqueuelen 1000
(Ethernet
)
启动 MHA,在manager服务器上
[root@MHA-manager ~
]
[1
] 129929
[root@localhost ~
]
[1
]+ Running
nohup masterha_manager --conf
=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover
< /dev/null
> /var/log/masterha/app1/manager.log 2
>&1
&
查看 MHA 状态,可以看到当前的 master 是 Mysql1 节点
[root@MHA-manager ~
]
app1
(pid:32493
) is running
(0:PING_OK
), master:20.0.0.23
查看 MHA 日志,也以看到当前的 master 是 20.0.0.23
[root@MHA-manager ~
]
Tue Nov 26 23:12:30 2019 -
[info
] Checking master_ip_failover_script status:
Tue Nov 26 23:12:30 2019 -
[info
] /usr/local/bin/master_ip_failover --command
=status --ssh_user
=root --orig_master_host
=20.0.0.23 --orig_master_ip
=20.0.0.23 --orig_master_port
=3306
2.5、验证
我们先把主数据库给关闭,查看漂移地址是否漂移
[root@MHA-manager ~
]
[root@mysql1 ~
]
现在我们去Manger查看日志,查看漂移地址是否漂移成功
我们可以在日志里面看到漂移地址已经成功
20.0.0.25
(20.0.0.25:3306
): OK: Applying all logs succeeded. Slave started, replicating from 20.0.0.24
(20.0.0.24:3306
)
我们现在去mysql2查看一下网卡配置信息,漂移地址已经漂移成功!
[root@mysql2 ~
]
ens33:1: flags
=4163
<UP,BROADCAST,RUNNING,MULTICAST
> mtu 1500
inet 20.0.0.200 netmask 255.0.0.0 broadcast 20.255.255.255
ether 00:0c:29:a4:3e:ec txqueuelen 1000
(Ethernet
)
再查看一下mysql 1的网卡配置信息
[root@mysql2 ~
]
已经没有 ens33:1 虚拟接口信息