详解Mysql数据库平滑扩容解决高并发和大数据量问题
目录
- 1 停机方案
- 2 停写方案
- 3 平滑扩容之双写方案(中小型数据)
- 4 平滑扩容之2N方案大数据量问题解决
- 4.1 扩容问题
- 4.2 解决方案
- 4.3 双主架构思想
- 4.4 环境部署
- 5 数据库秒级平滑2N扩容实践
- 5.1 新增数据库VIP
- 5.2 应用服务增加动态数据源
- 5.3 解除原双主同步
- 5.4 安装MariaDB扩容服务器
- 5.5 增加KeepAlived服务实现高可用
- 5.6 清理数据并验证
1 停机方案
- 发布公告
- 停止服务
- 离线数据迁移(拆分,重新分配数据)
- 数据校验
- 更改配置
- 恢复服务
- 回滚预案
2 停写方案
- 支持读写分离
- 升级公告
- 中断写操作,隔离写数据源(或拦截返回统一提示)
- 数据同步处理
- 数据校验
- 更改配置
- 恢复写操作
- 数据清理
- 回滚预案
3 平滑扩容之双写方案(中小型数据)
双写方案可通过canal或mq做实现。
- 增加新库
- 数据迁移:
避免增量影响, 先断开主从,再导入(耗时较长), 同步完成并做校验
- 增量同步:
监听Canal,并开启主从同步
- 切换新库
- 修复切换异常数据(canal未同步但已切换至新库的请求), 通过定制程序读取异常日志做处理
为什么不通过MariaDB Galera集群直接扩充新的服务器节点去实现扩容?
- Galera集群是多主同步,扩充的节点提升的是并发吞吐能力,数据瓶颈问题未解决。
通过路由中间件MyCat,Sharding JDBC等, 直接扩充新的节点是否可性? - 原数据需要重新分配, 比如取模分片。
总结:这种方案就是水平扩容,提高了并发量,但是实际大数据量的瓶颈没有解决.
4 平滑扩容之2N方案大数据量问题解决
4.1 扩容问题
项目初期,部署了数据库A及其从机A0,B及其从节点B0,为将数据平均分配,在service层,使用uid%2取模分片(可采用sharding JDBC),将数据分配到对应的数据库。如下图
随着用户量的增大,用户产生的数据量最终达到数据库的最佳存储容量,需要进行扩容,否则CRUD操作会变慢,影响服务的响应速度。
如何平滑的扩容,保证业务的连续性和高可用,对业务影响最小?
4.2 解决方案
先把A0和B0升级为新的主库节点,如此,由2个分库变为4个分库。同时在上层的分片配置,做好映射,规则如下:
uid%4=0
的和uid%4=2
的数据分别分配到A和A0主库中uid%4=1
的和uid%4=3
的数据分别分配到B和B0主库中
由于A和A0库的数据相同,B和B0库的数据相同,此时无需数据迁移,只需调整分片配置即可,可通过配置中心更新,不需要重启。
3. 扩容之后旧数据有冗余,需要对冗余数据做清理
-- 针对A,去除%4!=0的 delete from user.userinfo where uid % 4 != 0; -- 针对A0,去除%4!=2的 delete from user.userinfo where uid % 4 != 2; -- 针对B,去除%4!=1的 delete from user.userinfo where uid % 4 != 1; -- 针对B0,去除%4!=3的 delete from user.userinfo where uid % 4 != 3;
处理完成后,为保证数据高可用,需要再次为现有主库增加一个从库
以下为双主架构进行水平扩容,下图为现在的架构
4.3 双主架构思想
1.两台mysql都可读写,互为主备,默认只使用一台(masterA)负责数据的写入,另一台(masterB)备用;
2.masterA是masterB的主库,masterB又是masterA的主库,它们互为主从;
3.两台主库之间做高可用,可以采用keepalived等方案(使用VIP对外提供服务);
4.所有提供服务的从服务器与masterB进行主从同步(双主多从);
5.建议采用高可用策略的时候,masterA或masterB均不因宕机恢复后而抢占VIP(非抢占模式);
这样做可以在一定程度上保证主库的高可用,在一台主库down掉之后,可以在极短的时间内切换到另一台主库上(尽可能减少主库宕机对业务造成的影响),减少了主从同步给线上主库带来的压力;
但是也有几个不足的地方:
1.masterB可能会一直处于空闲状态(可以用它当从库,负责部分查询);
2.主库后面提供服务的从库要等masterB先同步完了数据后才能去masterB上去同步数据,这样可能会造成一定程度的同步延时;
4.4 环境部署
4.4.1 MariaDB服务安装 切换阿里云镜像服务(YUM安装过慢可以切换)
yum -y install wget mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.bak wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo wget -P /etc/yum.repos.d/ http://mirrors.aliyun.com/repo/epel-7.repo yum clean all yum makecache
配置YUM源
vi /etc/yum.repos.d/mariadb-10.2.repo
增加以下内容:
[mariadb] name = MariaDB baseurl = https://mirrors.ustc.edu.cn/mariadb/yum/10.2/centos7-amd64 gpgkey=https://yum.mariadb.org/RPM-GPG-KEY-MariaDB gpgcheck=1
执行安装
yum -y install mariadb mariadb-server MariaDB-client MariaDB-common
如果之前已经安装, 需要先删除(如果之前没有安装, 可以忽略此步骤)
停止Mariadb服务
[root@localhost yum.repos.d]# ps -ef | grep mysql root 1954 1 0 Oct04 ? 00:05:43 /usr/sbin/mysqld -- wsrep-new-cluster --user=root root 89521 81403 0 07:40 pts/0 00:00:00 grep --color=auto mysql [root@localhost yum.repos.d]# kill 1954
卸载Mariadb服务
yum -y remove Maria*
删除数据与配置:
rm -rf /var/lib/mysql/* rm -rf /etc/my.cnf.d/ rm -rf /etc/my.cnf
初始化配置
systemctl start mariadb mysql_secure_installation
开启用户远程连接权限
将连接用户root开启远程连接权限;
mysql -uroot -p654321
进入MySQL服务, 执行以下操作:
use mysql; delete from user; GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '654321' WITH GRANT OPTION; FLUSH PRIVILEGES;
4.4.2 MariaDB双主同步
在Server1增加配置:
在/etc/my.cnf中添加以下配置:
[mysqld] server-id = 1 log-bin=mysql-bin relay-log = mysql-relay-bin replicate-wild-ignore-table=mysql.% replicate-wild-ignore-table=information_schema.% log-slave-updates=on slave-skip-errors=all auto-increment-offset=1 auto-increment-increment=2 binlog_format=mixed expire_logs_days=10
注意, Server1自增为奇数位:
auto-increment-offset=1 主键自增基数, 从1开始。
auto-increment-increment=2 主键自增偏移量,每次为2。
2. 在Server2增加配置:
修改/etc/my.cnf:
[mysqld] server-id = 2 log-bin=mysql-bin relay-log = mysql-relay-bin replicate-wild-ignore-table=mysql.% replicate-wild-ignore-table=information_schema.% log-slave-updates=on slave-skip-errors=all auto-increment-offset=2 auto-increment-increment=2 binlog_format=mixed expire_logs_days=10
Server2自增为偶数位:
auto-increment-offset=2 主键自增基数, 从2开始。
auto-increment-increment=2 主键自增偏移量,每次为2。
配置修改完成后, 重启数据库。
3. 同步授权配置
在Server1创建replica用于主从同步的用户:
MariaDB [(none)]> grant replication slave, replication client on *.* to 'replica'@'%' identified by 'replica'; mysql> flush privileges;
查询日志文件与偏移量,开启同步时需使用:
MariaDB [(none)]> show master status; +------------------+----------+--------------+------------------+ | File | Position | Binlog_Do_DB | Binlog_Ignore_DB | +------------------+----------+--------------+------------------+ | mysql-bin.000001 | 663 | | | +------------------+----------+--------------+------------------+
同样, 在Server2创建replica用于主从同步的用户:
MariaDB [(none)]> grant replication slave, replication client on *.* to 'replica'@'%' identified by 'replica'; mysql> flush privileges;
查询日志文件与偏移量:
MariaDB [(none)]> show master status; +------------------+----------+--------------+------------------+ | File | Position | Binlog_Do_DB | Binlog_Ignore_DB | +------------------+----------+--------------+------------------+ | mysql-bin.000001 | 663 | | | +------------------+----------+--------------+------------------+
配置主从同步信息
在Server1中执行:
MariaDB [(none)]> change master to master_host='10.10.20.126',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000001', master_log_pos=663, master_connect_retry=30;
在Server2中执行:
MariaDB [(none)]> change master to master_host='10.10.20.125',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000001', master_log_pos=663, master_connect_retry=30;
开启双主同步
在Server1和Server2中分别执行:
MariaDB [(none)]> start slave; Query OK, 0 rows affected (0.00 sec)
在Server1查询同步信息:
MariaDB [(none)]> show slave status\G; *************************** 1. row *************************** Slave_IO_State: Waiting for master to send event Master_Host: 10.10.20.126 Master_User: replica Master_Port: 3306 Connect_Retry: 30 Master_Log_File: mysql-bin.000001 Read_Master_Log_Pos: 663 Relay_Log_File: mysql-relay-bin.000002 Relay_Log_Pos: 555 Relay_Master_Log_File: mysql-bin.000001 Slave_IO_Running: Yes Slave_SQL_Running: Yes ...
在Server2查询同步信息:
MariaDB [(none)]> show slave status\G; *************************** 1. row *************************** Slave_IO_State: Waiting for master to send event Master_Host: 10.10.20.125 Master_User: replica Master_Port: 3306 Connect_Retry: 30 Master_Log_File: mysql-bin.000001 Read_Master_Log_Pos: 663 Relay_Log_File: mysql-relay-bin.000002 Relay_Log_Pos: 555 Relay_Master_Log_File: mysql-bin.000001 Slave_IO_Running: Yes Slave_SQL_Running: Yes ...
Slave_IO_Running和Slave_SQL_Running 都是Yes,说明双主同步配置成功。
4.4.3 KeepAlived安装与高可用配置
在Server1与Server2两台节点安装keepalived:
yum -y install keepalived
2.关闭防火墙
systemctl stop firewalld systemctl disable firewalld
设置主机名称:
Server1节点:hostnamectl set-hostname vip1
Server2节点:hostnamectl set-hostname vip2
Server1节点配置
/etc/keepalived/keepalived.conf:
global_defs { router_id vip1 # 机器标识,和主机名保持一致 } vrrp_instance VI_1 { #vrrp实例定义 state BACKUP #lvs的状态模式,MASTER代表主, BACKUP代表备份节点 interface ens33 #绑定对外访问的网卡 virtual_router_id 111 #虚拟路由标示,同一个vrrp实例采用唯一标示 priority 100 #优先级,100代表最大优先级, 数字越大优先级越高 advert_int 1 #master与backup节点同步检查的时间间隔,单位是秒 authentication { #设置验证信息 auth_type PASS #有PASS和AH两种 auth_pass 6666 #验证密码,BACKUP密码须相同 } virtual_ipaddress { #KeepAlived虚拟的IP地址 10.10.20.130 } } virtual_server 10.10.20.130 3306 { #配置虚拟服务器IP与访问端口 delay_loop 6 #健康检查时间 lb_algo rr #负载均衡调度算法, rr代表轮询 lb_kind DR #负载均衡转发规则 persistence_timeout 0 #会话保持时间,这里要做测试, 所以设为0, 实际可根 据session有效时间配置 protocol TCP #转发协议类型,支持TCP和UDP real_server 10.10.20.125 3306 { #配置服务器节点VIP1 notify_down /usr/local/shell/mariadb.sh #当服务挂掉时, 会执行此脚本,结束 keepalived进程 weight 1 #设置权重,越大权重越高 TCP_CHECK { #r状态监测设置 connect_timeout 10 #超时配置, 单位秒 retry 3 #重试次数 delay_before_retry 3 #重试间隔 connect_port 3306 #连接端口, 和上面保持一致 } } }
创建关闭脚本mariadb.sh
/usr/local/shell/mariadb.sh:pkill keepalived
加入执行权限:chmod a+x mariadb.sh
5.Server2节点配置:
global_defs { router_id vip2 # 机器标识,和主机名保持一致 } vrrp_instance VI_1 { #vrrp实例定义 state BACKUP #lvs的状态模式,MASTER代表主, BACKUP代表备份节点 interface ens33 #绑定对外访问的网卡 virtual_router_id 111 #虚拟路由标示,同一个vrrp实例采用唯一标示 priority 98 #优先级,100代表最大优先级, 数字越大优先级越高 advert_int 1 #master与backup节点同步检查的时间间隔,单位是秒 authentication { #设置验证信息 auth_type PASS #有PASS和AH两种 auth_pass 6666 #验证密码,BACKUP密码须相同 } virtual_ipaddress { #KeepAlived虚拟的IP地址 10.10.20.130 } } virtual_server 10.10.20.130 3306 { #配置虚拟服务器IP与访问端口 delay_loop 6 #健康检查时间 lb_algo rr #负载均衡调度算法, rr代表轮询, 可以关闭 lb_kind DR #负载均衡转发规则, 可以关闭 persistence_timeout 0 #会话保持时间,这里要做测试, 所以设为0, 实际可根 据session有效时间配置 protocol TCP #转发协议类型,支持TCP和UDP real_server 10.10.20.126 3306{ #配置服务器节点VIP2 notify_down /usr/local/shell/mariadb.sh #当服务挂掉时, 会执行此脚本,结束 keepalived进程 weight 1 #设置权重,越大权重越高 TCP_CHECK { #r状态监测设置 connect_timeout 10 #超时配置, 单位秒 retry 3 #重试次数 delay_before_retry 3 #重试间隔 connect_port 3306 #连接端口, 和上面保持一致 } } }
和Server1的差异项:
router_id vip2 # 机器标识,和主机名保持一致 priority 98 #优先级,100代表最大优先级, 数字越大优先级越高 real_server 10.10.20.126 3306 #配置服务器节点VIP2
注意, 两台节点都设为BACKUP
virtual_router_id 111 #同一个vrrp实例采用唯一标示 state BACKUP
如果不想重启后, 争夺备用节点的VIP, 可以设置此项
nopreempt #不主动抢占资源
6. 验证高可用
停止主节点MariaDB服务, 验证是否自动切换。
4.4.4 搭建应用服务工程
- ShardingJDBC的集成配置
- ShardingJDBC数据源的动态切换实现
- 验证应用服务动态扩容
- 配置两个数据源,分别指向Server1和Server2
- 分片只配置一个数据源
- 动态增加另一个数据源
- 动态扩容的验证
- 动态扩容的复原验证(模拟节点异常, 实现复原单节点数据源)
- 采用动态数据源配置实现扩容(扩容实践中改造)
// 动态数据源配置实现扩容 Properties properties = loadPropertiesFile("datasource1.properties"); try { log.info("load datasource config url: " + properties.get("url")); DruidDataSource druidDataSource = (DruidDataSource) DruidDataSourceFactory.createDataSource(properties); druidDataSource.setRemoveAbandoned(true); druidDataSource.setRemoveAbandonedTimeout(600); druidDataSource.setLogAbandoned(true); // 设置数据源错误重连时间 druidDataSource.setTimeBetweenConnectErrorMillis(60000); druidDataSource.init(); OrchestrationShardingDataSource dataSource = SpringContextUtil.getBean("tradeSystemDataSource", OrchestrationShardingDataSource.class); Map<String, DataSource> dataSourceMap = dataSource.getDataSource().getDataSourceMap(); dataSourceMap.put(DatasourceEnum.DATASOURCE_2.getValue(), druidDataSource); Map<String, DataSourceConfiguration> dataSourceConfigMap = new HashMap<String, DataSourceConfiguration>(); for(String key : dataSourceMap.keySet()) { dataSourceConfigMap.put(key, DataSourceConfiguration.getDataSourceConfiguration(dataSourceMap.get(key))); } String result = SHARDING_RULE_TABLE_ORDER.replace(SHARDING_RULE_DATASOURCE, newRule); replaceActualDataNodes(result); SHARDING_RULE_DATASOURCE = newRule; dataSource.renew(new DataSourceChangedEvent( "/" + DruidSystemDataSourceConfiguration.DYNAMIC_SHARDING + "/config/schema/logic_db/datasource", dataSourceConfigMap)); return; } catch (Exception e) { log.error(e.getMessage(), e); }
注意事项
Sharding JDBC, Mycat, Drds 等产品都是分布式数据库中间件, 相比直接的数据源操作, 会存在一些
限制, Sharding JDBC在使用时, 要注意以下问题:
有限支持子查询
不支持HAVING
不支持OR,UNION 和 UNION ALL
不支持特殊INSERT
每条INSERT语句只能插入一条数据,不支持VALUES后有多行数据的语句
不支持DISTINCT聚合
不支持dual虚拟表查询
不支持SELECT LAST_INSERT_ID(), 不支持自增序列
不支持CASE WHEN
5 数据库秒级平滑2N扩容实践
扩容部署架构:
5.1 新增数据库VIP
在Server2节点, 增加VIP
修改/etc/keepalived/keepalived.conf,追加:
... vrrp_instance VI_2 { #vrrp实例定义 state BACKUP #lvs的状态模式,MASTER代表主, BACKUP代表备份节点 interface ens33 #绑定对外访问的网卡 virtual_router_id 112 #虚拟路由标示,同一个vrrp实例采用唯一标示 priority 100 #优先级,100代表最大优先级, 数字越大优先级越高 advert_int 1 #master与backup节点同步检查的时间间隔,单位是秒 authentication { #设置验证信息 auth_type PASS #有PASS和AH两种 auth_pass 6666 #验证密码,BACKUP密码须相同 } virtual_ipaddress { #KeepAlived虚拟的IP地址 10.10.20.131 } } virtual_server 10.10.20.131 3306 { #配置虚拟服务器IP与访问端口 delay_loop 6 #健康检查时间 persistence_timeout 0 #会话保持时间,这里要做测试, 所以设为0, 实际可根 据session有效时间配置 protocol TCP #转发协议类型,支持TCP和UDP real_server 10.10.20.126 3306{ #配置服务器节点VIP1 notify_down /usr/local/shell/mariadb.sh weight 1 #设置权重,越大权重越高 TCP_CHECK { #r状态监测设置 connect_timeout 10 #超时配置, 单位秒 retry 3 #重试次数 delay_before_retry 3 #重试间隔 connect_port 3306 #连接端口, 和上面保持一致 } } }
注意配置项:
virtual_router_id 112 #虚拟路由标示,同一个vrrp实例采用唯一标示 priority 100 #优先级,100代表最大优先级, 数字越大优先级越高
5.2 应用服务增加动态数据源
- 修改应用服务配置, 增加新的数据源, 指向新设置的VIP: 10.10.20.131
- 通过应用服务接口, 动态扩容调整
5.3 解除原双主同步
- 进入Server1: MariaDB [(none)]> stop slave;
- 进入Server2:MariaDB [(none)]> stop slave;
- 通过应用服务接口验证数据是否解除同步
5.4 安装MariaDB扩容服务器
- 新建两台虚拟机, 分别为Server3和Server4。
- 在Server3和Server4两台节点上安装MariaDB服务
- 参考 MariaDB服务安装
- 配置Server3与Server1,实现新的双主同步
Server3节点, 修改/etc/my.cnf:
[mysqld] server-id = 2 log-bin=mysql-bin relay-log = mysql-relay-bin replicate-wild-ignore-table=mysql.% replicate-wild-ignore-table=information_schema.% log-slave-updates=on slave-skip-errors=all auto-increment-offset=2 auto-increment-increment=2 binlog_format=mixed expire_logs_days=10
重启Server3数据库
service mariadb restart
创建replica用于主从同步的用户:
MariaDB [(none)]> grant replication slave, replication client on *.* to 'replica'@'%' identified by 'replica'; mysql> flush privileges;
在Server1节点,进行数据全量备份:
mysqldump -uroot -p654321 --routines --single_transaction --master-data=2 -- databases smooth > server1.sql
查看并记录master status信息:
... -- -- Position to start replication or point-in-time recovery from -- -- CHANGE MASTER TO MASTER_LOG_FILE='mysql-bin.000002', MASTER_LOG_POS=17748; ...
将备份的server1.sql通过scp命令拷贝至Server3节点。scp server1.sql root@10.10.20.127:/usr/local/将数据还原至Server3节点:mysql -uroot -p654321 < /usr/local/server1.sql配置主从同步信息
根据上面的master status信息, 在Server3中执行:
MariaDB [(none)]> change master to master_host='10.10.20.125',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000002', master_log_pos=17748, master_connect_retry=30; Query OK, 0 rows affected (0.01 sec)
开启主从同步:
MariaDB [(none)]> start slave; Query OK, 0 rows affected (0.00 sec)
如果出现问题, 复原主从同步信息:
MariaDB [(none)]> reset slave; Query OK, 0 rows affected (0.01 sec)
检查同步状态信息:
MariaDB [(none)]> show slave status \G *************************** 1. row *************************** Slave_IO_State: Waiting for master to send event Master_Host: 10.10.20.125 Master_User: replica Master_Port: 3306 Connect_Retry: 30 Master_Log_File: mysql-bin.000004 Read_Master_Log_Pos: 11174 Relay_Log_File: mysql-relay-bin.000002 Relay_Log_Pos: 1746 Relay_Master_Log_File: mysql-bin.000004 Slave_IO_Running: Yes Slave_SQL_Running: Yes
配置Server1与Server3节点的同步
查看Server3的日志信息:
MariaDB [(none)]> show master status; +------------------+----------+--------------+------------------+ | File | Position | Binlog_Do_DB | Binlog_Ignore_DB | +------------------+----------+--------------+------------------+ | mysql-bin.000001 | 4781 | | | +------------------+----------+--------------+------------------+
在Server1节点, 配置同步信息:
MariaDB [(none)]> reset slave; Query OK, 0 rows affected (0.00 sec) MariaDB [(none)]> change master to master_host='10.10.20.127',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000001', master_log_pos=4781, master_connect_retry=30; MariaDB [(none)]> start slave; Query OK, 0 rows affected (0.00 sec)
配置Server4与Server2的双主同步
Server4节点, 修改/etc/my.cnf:
[mysqld] server-id = 3 log-bin=mysql-bin relay-log = mysql-relay-bin replicate-wild-ignore-table=mysql.% replicate-wild-ignore-table=information_schema.% log-slave-updates=on slave-skip-errors=all auto-increment-offset=2 auto-increment-increment=2 binlog_format=mixed expire_logs_days=10
重启Server4数据库
service mariadb restart
创建replica用于主从同步的用户
MariaDB [(none)]> grant replication slave, replication client on *.* to 'replica'@'%' identified by 'replica'; mysql> flush privileges;
在Server2节点,进行数据全量备份:
mysqldump -uroot -p654321 --routines --single_transaction --master-data=2 -- databases smooth > server2.sql
查看并记录master status信息:
... -- -- Position to start replication or point-in-time recovery from -- -- CHANGE MASTER TO MASTER_LOG_FILE='mysql-bin.000003', MASTER_LOG_POS=4208; ...
将备份的server2.sql通过scp命令拷贝至Server4节点。scp server2.sql root@10.10.20.128:/usr/local/
将数据还原至Server4节点:mysql -uroot -p654321 < /usr/local/server2.sql
配置主从同步信息
根据上面的master status信息, 在Server4中执行:
MariaDB [(none)]> change master to master_host='10.10.20.126',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000003', master_log_pos=4208, master_connect_retry=30; Query OK, 0 rows affected (0.01 sec)
开启主从同步:
MariaDB [(none)]> start slave; Query OK, 0 rows affected (0.00 sec)
注意, 如果出现问题, 复原主从同步信息:
MariaDB [(none)]> reset slave; Query OK, 0 rows affected (0.01 sec)
检查同步状态信息:
MariaDB [(none)]> show slave status \G *************************** 1. row *************************** Slave_IO_State: Waiting for master to send event Master_Host: 10.10.20.125 Master_User: replica Master_Port: 3306 Connect_Retry: 30 Master_Log_File: mysql-bin.000004 Read_Master_Log_Pos: 11174 Relay_Log_File: mysql-relay-bin.000002 Relay_Log_Pos: 1746 Relay_Master_Log_File: mysql-bin.000004 Slave_IO_Running: Yes Slave_SQL_Running: Yes
配置Server2与Server4节点的同步
查看Server4的日志信息:
MariaDB [(none)]> show master status; +------------------+----------+--------------+------------------+ | File | Position | Binlog_Do_DB | Binlog_Ignore_DB | +------------------+----------+--------------+------------------+ | mysql-bin.000001 | 3696 | | | +------------------+----------+--------------+------------------+
在Server2节点, 配置同步信息:
MariaDB [(none)]> reset slave; Query OK, 0 rows affected (0.00 sec) MariaDB [(none)]> change master to master_host='10.10.20.128',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000001', master_log_pos=3696, master_connect_retry=30; MariaDB [(none)]> start slave; Query OK, 0 rows affected (0.00 sec)
5.5 增加KeepAlived服务实现高可用
确保新增的Server3和Server4节点安装Keepalived服务。
修改Server3节点配置
global_defs { router_id vip3 # 机器标识,一般设为hostname,故障发生时,邮件通知会使用 到。 } vrrp_instance VI_1 { #vrrp实例定义 state BACKUP #lvs的状态模式,MASTER代表主, BACKUP代表备份节点 interface ens33 #绑定对外访问的网卡 virtual_router_id 111 #虚拟路由标示,同一个vrrp实例采用唯一标示 priority 98 #优先级,100代表最大优先级, 数字越大优先级越高 advert_int 1 #master与backup节点同步检查的时间间隔,单位是秒 authentication { #设置验证信息 auth_type PASS #有PASS和AH两种 auth_pass 6666 #验证密码,BACKUP密码须相同 } virtual_ipaddress { #KeepAlived虚拟的IP地址 10.10.20.130 } } virtual_server 10.10.20.130 3306 { #配置虚拟服务器IP与访问端口 delay_loop 6 #健康检查时间 persistence_timeout 0 #会话保持时间,这里要做测试, 所以设为0, 实际可根 据session有效时间配置 protocol TCP #转发协议类型,支持TCP和UDP real_server 10.10.20.127 3306{ #配置服务器节点VIP3 notify_down /usr/local/shell/mariadb.sh weight 1 #设置权重,越大权重越高 TCP_CHECK { #r状态监测设置 connect_timeout 10 #超时配置, 单位秒 retry 3 #重试次数 delay_before_retry 3 #重试间隔 connect_port 3306 #连接端口, 和上面保持一致 } } }
注意里面IP配置正确, 修改完成后重启服务。
创建关闭脚本mariadb.sh
/usr/local/shell/mariadb.sh:
pkill keepalived
加入执行权限:
chmod a+x mariadb.sh
3. 修改Server4节点配置
global_defs { router_id vip4 # 机器标识,一般设为hostname,故障发生时,邮件通知会使用 到。 } vrrp_instance VI_1 { #vrrp实例定义 state BACKUP #lvs的状态模式,MASTER代表主, BACKUP代表备份节点 interface ens33 #绑定对外访问的网卡 virtual_router_id 112 #虚拟路由标示,同一个vrrp实例采用唯一标示 priority 98 #优先级,100代表最大优先级, 数字越大优先级越高 advert_int 1 #master与backup节点同步检查的时间间隔,单位是秒 authentication { #设置验证信息 auth_type PASS #有PASS和AH两种 auth_pass 6666 #验证密码,BACKUP密码须相同 } virtual_ipaddress { #KeepAlived虚拟的IP地址 10.10.20.131 } } virtual_server 10.10.20.131 3306 { #配置虚拟服务器IP与访问端口 delay_loop 6 #健康检查时间 persistence_timeout 0 #会话保持时间,这里要做测试, 所以设为0, 实际可根 据session有效时间配置 protocol TCP #转发协议类型,支持TCP和UDP real_server 10.10.20.128 3306{ #配置服务器节点VIP4 notify_down /usr/local/shell/mariadb.sh weight 1 #设置权重,越大权重越高 TCP_CHECK { #r状态监测设置 connect_timeout 10 #超时配置, 单位秒 retry 3 #重试次数 delay_before_retry 3 #重试间隔 connect_port 3306 #连接端口, 和上面保持一致 } } }
重启服务,创建关闭脚本mariadb.sh
/usr/local/shell/mariadb.sh:
pkill keepalived
加入执行权限:chmod a+x mariadb.sh
4. 修改Server2节点的keepAlived配置:
global_defs { router_id vip2 # 机器标识,一般设为hostname,故障发生时,邮件通知会使用 到。 } vrrp_instance VI_1 { #vrrp实例定义 state BACKUP #lvs的状态模式,MASTER代表主, BACKUP代表备份节点 interface ens33 #绑定对外访问的网卡 virtual_router_id 112 #虚拟路由标示,同一个vrrp实例采用唯一标示 priority 100 #优先级,100代表最大优先级, 数字越大优先级越高 advert_int 1 #master与backup节点同步检查的时间间隔,单位是秒 authentication { #设置验证信息 auth_type PASS #有PASS和AH两种 auth_pass 6666 #验证密码,BACKUP密码须相同 } virtual_ipaddress { #KeepAlived虚拟的IP地址 10.10.20.131 } } virtual_server 10.10.20.131 3306 { #配置虚拟服务器IP与访问端口 delay_loop 6 #健康检查时间 persistence_timeout 0 #会话保持时间,这里要做测试, 所以设为0, 实际可根 据session有效时间配置 protocol TCP #转发协议类型,支持TCP和UDP real_server 10.10.20.126 3306{ #配置服务器节点VIP1 notify_down /usr/local/shell/mariadb.sh weight 1 #设置权重,越大权重越高 TCP_CHECK { #r状态监测设置 connect_timeout 10 #超时配置, 单位秒 retry 3 #重试次数 delay_before_retry 3 #重试间隔 connect_port 3306 #连接端口, 和上面保持一致 } } }
修改完后重启Keepalived服务。
5.6 清理数据并验证
通过应用服务动态扩容接口做调整和验证
在Server1节点清理数据
根据取模规则, 保留accountNo为偶数的数据
delete from t_trade_order where accountNo % 2 != 0
在Server2节点清理数据
根据取模规则, 保留accountNo为奇数的数据
delete from t_trade_order where accountNo % 2 != 1
到此这篇关于详解Mysql数据库平滑扩容解决高并发和大数据量问题的文章就介绍到这了,更多相关Mysql数据库平滑扩容内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!