6가지 MySQL 데이터베이스 순조로운 확장 방안 분석

이 기사는 "데이터베이스 기술에 관한 기술 주제 19 토론" 활동 에 참여하고 있습니다.

1. 증설계획 분석

1.1 확장 문제

프로젝트 초기에 A, B, C 세 개의 데이터베이스를 배포했습니다. 이때 데이터베이스의 규모는 비즈니스 요구 사항을 충족할 수 있습니다. 데이터를 균등하게 분배하기 위해 모듈로 샤딩을 위해 서비스 계층에서 uid%3을 사용하여 데이터가 3개의 데이터베이스에 균등하게 분배되도록 합니다.

그림과 같이:파일

이후 사용자 수가 증가함에 따라 사용자가 생성한 데이터 정보는 지속적으로 데이터베이스에 추가되고 최종적으로 데이터베이스의 최적 저장 용량에 도달합니다. 이때 데이터베이스에 계속해서 데이터를 추가하면 데이터베이스의 CRUD와 같은 기본 동작이 느려져 전체 서비스의 응답 속도에 영향을 미치게 됩니다.

이때 데이터베이스를 수평으로 확장하기 위해서는 새로운 노드를 추가해야 하며, 새로운 데이터베이스 D를 추가하면 데이터베이스의 크기가 기존 3개에서 4개로 변경됩니다.

그림과 같이:

파일

이때 sharding rule의 변경으로(uid%3이 uid%4로) 대부분의 데이터가 원본 데이터에 도달하지 못하여 재할당이 필요하고 많은 양의 데이터 마이그레이션 처리가 필수의.

예를 들어 이전에 uid가 uid=3이고 modulo 3%3=0인 경우 A 라이브러리에 할당되고 D 라이브러리에 새로 추가된 후에는 uid=3이고 modulo 3%4=3이 할당됩니다. D 라이브러리;

파일

새 노드를 추가할 때 약 90%의 데이터를 마이그레이션해야 하므로 많은 데이터 압력에 직면하고 서비스에 큰 불안정을 초래합니다.

1.2 종료 방식

파일

  1. 발표하다

    데이터를 다시 분할하려면 서비스를 중단하기 전에 사용자에게 미리 알려야 합니다. 예를 들어 서비스가 yyyy-MM-dd에 업그레이드될 예정입니다.

  2. 서비스 중단

    서비스 종료

  3. 오프라인 데이터 마이그레이션(데이터 분할, 재할당)

    서비스 계층의 알고리즘에 따라 기존 라이브러리의 데이터를 분할하고 데이터를 재배포합니다.

  4. 데이터 유효성 검사

    기존 라이브러리와 신규 라이브러리의 데이터를 검증하고 비교하는 프로그램 개발 및 커스터마이즈

  5. 구성 변경

    서비스 계층의 구성 알고리즘을 수정합니다. 즉, 원래 uid%3을 uid%4로 변경합니다.

  6. 서비스 재개

    서비스 서비스 다시 시작

  7. 롤백 계획

    위의 각 단계에 대해 데이터 롤백 계획이 있어야 하며, 특정 링크(예: 데이터 마이그레이션, 서비스 복구 등)가 실행되지 않으면 즉시 롤백하고 다시 시작합니다.

停止服务之后, 能够保证迁移工作的正常进行, 但是服务停止,伤害用户体验, 并造成了时间压力, 必须在指定的时间内完成迁移。

1.3 停写方案

파일

  1. 支持读写分离

    数据库支持读写分离,在扩容之前,每个数据库都提供了读写功能,数据重新分配的过程中,将每个数据库设置为只读状态,关闭写的功能

  2. 升级公告

    为了进行数据的重新拆分,在停写之前,我们需要提前通知用户,比如:我们的服务会在yyyy-MM-dd进行升级,给您带来的不便敬请谅解。

  3. 中断写操作,隔离写数据源(或拦截返回统一提示)

    在Service层对所有的写请求进行拦截,统一返回提示信息,如:服务正在升级中,只对外提供读服务

  4. 数据同步处理

    将旧库中的数据按照Service层的算法,将数据重新分配,迁移(复制数据)

  5. 数据校验

    开发定制一个程序对旧库中的数据进行备份,使用备份的数据和重新分配后的数据进行校验,比对

  6. 更改配置

    通过配置中心,修改Service层的配置算法,也就是将原来的uid%3变为uid%4,这个过程不需要重启服务

  7. 恢复写操作

    设置数据库恢复读写功能,去除Service层的拦截提示

  8. 数据清理

    使用delete语句对冗余数据进行删除

  9. 回滚预案

    针对上述的每个步骤都要有数据回滚预案,一旦某个环节(如:数据迁移等)执行失败,立刻进行回滚,重新再来

缺点:在数据的复制过程需要消耗大量的时间,停写时间太长,数据需要先复制,再清理冗余数据

1.4 日志方案

核心是通过日志进行数据库的同步迁移, 主要操作步骤如下:

  1. 数据迁移之前, 业务应用访问旧的数据库节点。

파일

  1. 日志记录

    在升级之前, 记录“对旧数据库上的数据修改”的日志(这里修改包括增、删、改),这个日志不需要记录详细的数据信息,主要记录:

    (1)修改的库;

    (2)修改的表;

    (3)修改的唯一主键;

    (4)修改操作类型。

파일

日志记录不用关注新增了哪些信息,修改的数据格式,只需要记录以上数据信息,这样日志格式是固定的, 这样能保证方案的通用性。

服务升级日志记录功能风险较小:

写和修改接口是少数, 改动点少;

升级只是增加了一些日志,采用异步方式实现, 对业务功能没有太多影响。

  1. 数据迁移:

    研发定制数据迁移工具, 作用是把旧库中的数据迁移至新库中。

파일

整个过程仍然采用旧库进行对外服务。

数据同步工具实现复杂度不高。

只对旧库进行读取操作, 如果同步出现问题, 都可以对新库进行回滚操作。

可以限速或分批迁移执行, 不会有时间压力。

数据迁移完成之后, 并不能切换至新库提供服务。

因为旧库依然对线上提供服务, 库中的数据随时会发生变化, 但这些变化的数据并没有同步到新库中, 旧库和新库数据不一致, 所以不能直接进行切换, 需要将数据同步完整。

  1. 日志增量迁移

파일

研发一个日志迁移工具,把上面迁移数据过程中的差异数据追平,处理步骤:

读取log日志,获取具体是哪个库、表和主键发生了变化修改;

把旧库中的主键记录读取出来

根据主键ID,把新库中的记录替换掉

这样可以最大程度的保障数据的一致性。风险分析:

整个过程, 仍然是旧库对线上提供服务;

日志迁移工具实现的复杂度较低;

任何时间发现问题, 可以重新再来,有充分的容错空间;

可以限速重放处理日志, 处理过程不会因为对线上影响造成时间压力。

但是, 日志增量同步完成之后, 还不能切换到新的数据库。

因为日志增量同步过程中,旧库中可能有数据发生变化, 导致数据不一致,所以需要进一步读取日志, 追平数据记录; 日志增量同步过程随时可能会产生新的数据, 新库与旧库的数据追平也会是一个无限逼近的过程。

  1. 数据校验

    准备好数据校验工具,将旧库和新库中的数据进行比对,直到数据完全一致。

파일

  1. 切换新库

    数据比对完成之后, 将流量转移切换至新库, 至此新库提供服务, 完成迁移。

파일

但是在极限情况下, 即便通过上面的数据校验处理, 也有可能出现99.99%数据一致, 不能保障完全一致,这个时候可以在旧库做一个readonly只读功能, 或者将流量屏蔽降级,等待日志增量同步工具完全追平后, 再进行新库的切换。

至此,完成日志方案的迁移扩容处理, 整个过程能够持续对线上提供服务, 只会短暂的影响服务的可用性。

这种方案的弊端,是操作繁琐,需要适配多个同步处理工具,成本较高, 需要制定个性化业务的同步处理, 不具备普遍性,耗费的时间周期也较长。

1.5 双写方案(中小型数据)

파일

双写方案可通过canal或mq做实现。

  1. 增加新库,按照现有节点, 增加对应的数量。

  2. 数据迁移:避免增量影响, 先断开主从,再导入(耗时较长), 同步完成并做校验

  3. 增量同步:开启Canal同步服务, 监听从节点数据库, 再开启主从同步,从节点收到数据后会通过Canal服务, 传递至新的DB节点。

  4. 切换新库:通过Nginx,切换访问流量至新的服务。

  5. 修复切换异常数据:在切换过程中, 如果出现,Canal未同步,但已切换至新库的请求(比如下单,修改了资金, 但还未同步 ), 可以通过定制程序, 读取检测异常日志,做自动修复或人工处理。

    针对此种情况, 最好是在凌晨用户量小的时候, 或专门停止外网访问,进行切换,减少异常数据的产生。

  6. 数据校验:为保障数据的完全一致, 有必要对数据的数量完整性做校验。

1.6 平滑2N方案(大数据量)

  1. 线上数据库,为了保障其高可用,一般每台主库会配置一台从库,主库负责读写,从库负责读取。下图所示,A,B是主库,A0和B0是从库。

파일

  1. 当需要扩容的时候,我们把A0和B0升级为新的主库节点,如此由2个分库变为4个分库。同时在上层的分片配置,做好映射,规则如下:

    把uid%4=0和uid%4=2的数据分别分配到A和A0主库中

    把uid%4=1和uid%4=3的数据分配到B和B0主库中

파일

  1. 因为A和A0库的数据相同,B和B0数据相同,此时无需做数据迁移。只需调整变更一下分片配置即可,通过配置中心更新,不需要重启。

파일

由于之前uid%2的数据是分配在2个库里面,扩容之后需要分布到4个库中,但由于旧数据仍存在(uid%4=0的节点,还有一半uid%4=2的数据),所以需要对冗余数据做一次清理。

这个清理,并不会影响线上数据的一致性,可以随时随地进行。

  1. 处理完成之后,为保证数据的高可用,以及将来下一步的扩容需求。

    可以为现有的主库再次分配一个从库。

파일

2. 平滑2N扩容方案实践

2.1 实现应用服务级别的动态扩容

扩容前部署架构:

파일

2.1.1 MariaDB服务安装

  1. 切换阿里云镜像服务(YUM安装过慢可以切换)

    yum -y install wget
    ## 备份CentOS-Base.repo
    mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.bak
    
    wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
    
    wget -P /etc/yum.repos.d/ http://mirrors.aliyun.com/repo/epel-7.repo
    
    yum clean all
    
    yum makecache
    复制代码
  2. 配置YUM源

    vi /etc/yum.repos.d/mariadb-10.2.repo 
    复制代码

    增加以下内容:

    [mariadb]
    name = MariaDB
    baseurl = https://mirrors.ustc.edu.cn/mariadb/yum/10.2/centos7-amd64
    gpgkey=https://yum.mariadb.org/RPM-GPG-KEY-MariaDB
    gpgcheck=1
    复制代码
  3. 执行安装

    yum -y install mariadb mariadb-server MariaDB-client  MariaDB-common
    复制代码
  4. 如果之前已经安装, 需要先删除(如果之前没有安装, 可以忽略此步骤)

    • 停止Mariadb服务

      [root@localhost yum.repos.d]# ps -ef | grep mysql
      root       1954      1  0 Oct04 ?        00:05:43 /usr/sbin/mysqld --wsrep-new-cluster --user=root
      root      89521  81403  0 07:40 pts/0    00:00:00 grep --color=auto mysql
      [root@localhost yum.repos.d]# kill 1954
      复制代码
    • 卸载Mariadb服务

      yum -y remove Maria*
      复制代码
    • 删除数据与配置:

      rm -rf /var/lib/mysql/*
      rm -rf /etc/my.cnf.d/
      rm -rf /etc/my.cnf
      复制代码
  5. 启动MariaDB后,执行安全配置向导命令,可根据安全配置向导提高数据库的安全性

    systemctl start mariadb
    
    mysql_secure_installation
    复制代码
  6. 开启用户远程连接权限

    将连接用户root开启远程连接权限;

    mysql -uroot -p654321
    复制代码

    进入MySQL服务, 执行以下操作:

    use mysql;
    
    delete from user;
    ## 配置root用户使用密码654321从任何主机都可以连接到mysql服务器
    GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '654321' WITH GRANT OPTION;
    
    FLUSH PRIVILEGES;
    复制代码

2.1.2 MariaDB双主同步

  1. 在Server1增加配置:

    在/etc/my.cnf中添加以下配置:

    [mysqld]
    server-id  = 1
    log-bin=mysql-bin
    relay-log = mysql-relay-bin
    ## 忽略mysql、information_schema库下对表的操作
    replicate-wild-ignore-table=mysql.%
    replicate-wild-ignore-table=information_schema.%
    ## 默认的情况下mysql是关闭的;
    log-slave-updates=on
    ## 复制过程中,有任何错误,直接跳过
    slave-skip-errors=all
    auto-increment-offset=1
    auto-increment-increment=2
    ## binlog的格式:STATEMENT,ROW,MIXED
    binlog_format=mixed
    ## 自动过期清理binlog,默认0天,即不自动清理
    expire_logs_days=10
    复制代码

    注意, Server1自增为奇数位:

    auto-increment-offset=1 主键自增基数, 从1开始。

    auto-increment-increment=2 主键自增偏移量,每次为2。

  2. 在Server2增加配置:

    修改/etc/my.cnf:

    [mysqld]
    server-id = 2
    log-bin=mysql-bin
    relay-log = mysql-relay-bin
    replicate-wild-ignore-table=mysql.%
    replicate-wild-ignore-table=information_schema.%
    log-slave-updates=on
    slave-skip-errors=all
    auto-increment-offset=2
    auto-increment-increment=2
    binlog_format=mixed
    expire_logs_days=10
    
    复制代码

    Server2自增为偶数位:

    auto-increment-offset=2 主键自增基数, 从2开始。

    auto-increment-increment=2 主键自增偏移量,每次为2。

    配置修改完成后, 重启数据库。

  3. 同步授权配置

    在Server1创建replica用于主从同步的用户:

    MariaDB [(none)]> grant replication slave, replication client on *.* to 'replica'@'%' identified by 'replica';
    mysql> flush privileges;
    复制代码

    查询日志文件与偏移量,开启同步时需使用:

    MariaDB [(none)]> show master status;
    +------------------+----------+--------------+------------------+
    | File             | Position | Binlog_Do_DB | Binlog_Ignore_DB |
    +------------------+----------+--------------+------------------+
    | mysql-bin.000001 |      663 |              |                  |
    +------------------+----------+--------------+------------------+
    
    复制代码

    同样, 在Server2创建replica用于主从同步的用户:

    MariaDB [(none)]> grant replication slave, replication client on *.* to 'replica'@'%' identified by 'replica';
    mysql> flush privileges;
    复制代码

    查询日志文件与偏移量:

    MariaDB [(none)]> show master status;
    +------------------+----------+--------------+------------------+
    | File             | Position | Binlog_Do_DB | Binlog_Ignore_DB |
    +------------------+----------+--------------+------------------+
    | mysql-bin.000001 |      663 |              |                  |
    +------------------+----------+--------------+------------------+
    复制代码
  4. 配置主从同步信息

    在Server1中执行:

    MariaDB [(none)]> change master to master_host='192.168.116.141',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000007', master_log_pos=374, master_connect_retry=30;
    
    复制代码

    在Server2中执行:

    MariaDB [(none)]> change master to master_host='192.168.116.140',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000015', master_log_pos=374, master_connect_retry=30;
    
    复制代码
  5. 开启双主同步

    在Server1和Server2中分别执行:

    MariaDB [(none)]> start slave;
    Query OK, 0 rows affected (0.00 sec)
    复制代码

    在Server1查询同步信息:

    MariaDB [(none)]>  show slave status\G;
    *************************** 1. row ***************************
                   Slave_IO_State: Waiting for master to send event
                      Master_Host: 10.10.20.126
                      Master_User: replica
                      Master_Port: 3306
                    Connect_Retry: 30
                  Master_Log_File: mysql-bin.000001
              Read_Master_Log_Pos: 663
                   Relay_Log_File: mysql-relay-bin.000002
                    Relay_Log_Pos: 555
            Relay_Master_Log_File: mysql-bin.000001
                 Slave_IO_Running: Yes
                Slave_SQL_Running: Yes
    ...
    复制代码

    在Server2查询同步信息:

    MariaDB [(none)]>  show slave status\G;
    *************************** 1. row ***************************
                   Slave_IO_State: Waiting for master to send event
                      Master_Host: 10.10.20.125
                      Master_User: replica
                      Master_Port: 3306
                    Connect_Retry: 30
                  Master_Log_File: mysql-bin.000001
              Read_Master_Log_Pos: 663
                   Relay_Log_File: mysql-relay-bin.000002
                    Relay_Log_Pos: 555
            Relay_Master_Log_File: mysql-bin.000001
                 Slave_IO_Running: Yes
                Slave_SQL_Running: Yes
    ...
    复制代码

    Slave_IO_Running和Slave_SQL_Running 都是Yes,说明双主同步配置成功。

2.1.3 KeepAlived安装与高可用配置

  1. 在Server1与Server2两台节点安装keepalived:

    yum -y install keepalived
    复制代码
  2. 关闭防火墙

    systemctl stop firewalld
    systemctl disable firewalld
    复制代码
  3. 设置主机名称:

    Server1节点:

    hostnamectl set-hostname vip1
    复制代码

    Server2节点:

    hostnamectl set-hostname vip2
    复制代码
  4. Server1节点配置

    /etc/keepalived/keepalived.conf:

    global_defs {
       router_id vip1           # 机器标识,和主机名保持一致,运行keepalived服务器的一个标识
    }
    vrrp_instance VI_1 {            #vrrp实例定义
        state BACKUP               #lvs的状态模式,MASTER代表主, BACKUP代表备份节点
        interface ens33               #绑定对外访问的网卡,vrrp实例绑定的网卡
        virtual_router_id 111        #虚拟路由标示,同一个vrrp实例采用唯一标示
        priority 100               #优先级,100代表最大优先级, 数字越大优先级越高
        advert_int 1              #master与backup节点同步检查的时间间隔,单位是秒
        authentication {           #设置验证信息
            auth_type PASS         #有PASS和AH两种
            auth_pass 6666         #验证密码,BACKUP密码须相同
        }
        virtual_ipaddress {         #KeepAlived虚拟的IP地址
            192.168.116.150
        }
    }
    virtual_server 192.168.116.150 3306 {       #配置虚拟服务器IP与访问端口
        delay_loop 6                 #健康检查时间
        lb_algo rr                  #负载均衡调度算法, rr代表轮询
        lb_kind DR                   #负载均衡转发规则 DR/NAT/
        persistence_timeout 0        #会话保持时间,这里要做测试, 所以设为0, 实际可根据session有效时间配置
        protocol TCP               #转发协议类型,支持TCP和UDP
        real_server 192.168.116.140 3306 {    #配置服务器节点VIP1    
        notify_down /usr/local/shell/mariadb.sh #当服务挂掉时, 会执行此脚本,结束keepalived进程
        weight 1               #设置权重,越大权重越高
        TCP_CHECK {              #状态监测设置
           connect_timeout 10       #超时配置, 单位秒
           retry 3             #重试次数
           delay_before_retry 3        #重试间隔
           connect_port 3306         #连接端口, 和上面保持一致
           }
        }
    
    }
    
    复制代码

    创建关闭脚本mariadb.sh

    /usr/local/shell/mariadb.sh:

    pkill keepalived
    复制代码

    加入执行权限:

    chmod a+x mariadb.sh
    复制代码
  5. Server2节点配置:

    global_defs {
       router_id vip2           # 机器标识,和主机名保持一致,运行keepalived服务器的一个标识
    }
    vrrp_instance VI_1 {            #vrrp实例定义
        state BACKUP               #lvs的状态模式,MASTER代表主, BACKUP代表备份节点
        interface ens33               #绑定对外访问的网卡
        virtual_router_id 111        #虚拟路由标示,同一个vrrp实例采用唯一标示
        priority 98               #优先级,100代表最大优先级, 数字越大优先级越高
        advert_int 1              #master与backup节点同步检查的时间间隔,单位是秒
        authentication {           #设置验证信息
            auth_type PASS         #有PASS和AH两种
            auth_pass 6666         #验证密码,BACKUP密码须相同
        }
        virtual_ipaddress {         #KeepAlived虚拟的IP地址
            192.168.116.150
        }
    }
    virtual_server 192.168.116.150 3306 {       #配置虚拟服务器IP与访问端口
        delay_loop 6                 #健康检查时间
        lb_algo rr                  #负载均衡调度算法, rr代表轮询, 可以关闭
        lb_kind DR                   #负载均衡转发规则, 可以关闭
        persistence_timeout 0        #会话保持时间,这里要做测试, 所以设为0, 实际可根据session有效时间配置
        protocol TCP               #转发协议类型,支持TCP和UDP
        real_server 192.168.116.141 3306{    #配置服务器节点VIP2
        notify_down /usr/local/shell/mariadb.sh #当服务挂掉时, 会执行此脚本,结束keepalived进程
        weight 1               #设置权重,越大权重越高
        TCP_CHECK {              #r状态监测设置
           connect_timeout 10       #超时配置, 单位秒
           retry 3             #重试次数
           delay_before_retry 3        #重试间隔
           connect_port 3306         #连接端口, 和上面保持一致
           }
        }
    
    }
    
    复制代码

    和Server1的差异项:

    router_id vip2   # 机器标识,和主机名保持一致
    priority 98               #优先级,100代表最大优先级, 数字越大优先级越高
    real_server 10.10.20.126 3306  #配置服务器节点VIP2
    复制代码

    注意, 两台节点都设为BACKUP

    virtual_router_id 111        #同一个vrrp实例采用唯一标示
    state BACKUP
    复制代码

    如果不想重启后, 争夺备用节点的VIP, 可以设置此项

    nopreempt #不主动抢占资源
    复制代码

    注意:这个配置只能设置在backup主机上,而且这个主机优先级要比另外一台高

  6. 验证高可用

    停止主节点MariaDB服务, 验证是否自动切换。

2.1.4 搭建应用服务工程

  1. ShardingJDBC的介绍

    是ShardingSphere 下的一个产品

    定位为轻量级 Java 框架,在 Java 的 JDBC 层提供的额外服务。 它使用客户端直连数据库,以 jar 包形式提供服务,无需额外部署和依赖,可理解为增强版的 JDBC 驱动,完全兼容 JDBC 和各种 ORM 框架。

    • 适用于任何基于 JDBC 的 ORM 框架,如:JPA, Hibernate, Mybatis, Spring JDBC Template 或直接使用 JDBC。

    • 支持任何第三方的数据库连接池,如:DBCP, C3P0, BoneCP, Druid, HikariCP 等。

    • 支持任意实现 JDBC 规范的数据库,目前支持 MySQL,Oracle,SQLServer,PostgreSQL 以及任何遵循 SQL92 标准的数据库

  2. ShardingJDBC初始化流程

    1)配置ShardingRuleConfiguration对象

    2)配置表分片规则TableRuleConfiguration对象,设置分库、分表策略

    3)通过Factory对象将Rule对象与DataSource对象装配

    4)ShardingJDBC使用DataSource对象进行分库

파일

  1. ShardingJDBC集成配置

    1)maven依赖

    2)规则配置application.yml

    3)创建DataSource

  2. 验证应用服务动态扩容

    1. 配置两个数据源,分别指向Server1和Server2
    2. 分片只配置一个数据源
    3. 动态增加另一个数据源
    // 动态数据源配置实现扩容
    Properties properties = loadPropertiesFile("datasource1.properties");
    try {
        log.info("load datasource config url: " + properties.get("url"));
        DruidDataSource druidDataSource = (DruidDataSource) DruidDataSourceFactory.createDataSource(properties);
        druidDataSource.setRemoveAbandoned(true);
        druidDataSource.setRemoveAbandonedTimeout(600);
        druidDataSource.setLogAbandoned(true);
        // 设置数据源错误重连时间
        druidDataSource.setTimeBetweenConnectErrorMillis(60000);
        druidDataSource.init();
        OrchestrationShardingDataSource dataSource = SpringContextUtil.getBean("tradeSystemDataSource", OrchestrationShardingDataSource.class);
        Map<String, DataSource> dataSourceMap = dataSource.getDataSource().getDataSourceMap();
        dataSourceMap.put(DatasourceEnum.DATASOURCE_2.getValue(), druidDataSource);
    
        Map<String, DataSourceConfiguration> dataSourceConfigMap = new HashMap<String, DataSourceConfiguration>();
        for(String key : dataSourceMap.keySet()) {
            dataSourceConfigMap.put(key, DataSourceConfiguration.getDataSourceConfiguration(dataSourceMap.get(key)));
        }
        String result = SHARDING_RULE_TABLE_ORDER.replace(SHARDING_RULE_DATASOURCE, newRule);
        replaceActualDataNodes(result);
        SHARDING_RULE_DATASOURCE = newRule;
    
        dataSource.renew(new DataSourceChangedEvent(
            "/" + DruidSystemDataSourceConfiguration.DYNAMIC_SHARDING + "/config/schema/logic_db/datasource",
            dataSourceConfigMap));
        return;
    
    
    } catch (Exception e) {
        log.error(e.getMessage(), e);
    }
    
    
    复制代码
  3. 注意事项

    Sharding JDBC, Mycat, Drds 等产品都是分布式数据库中间件, 相比直接的数据源操作, 会存在一些限制, Sharding JDBC在使用时, 要注意以下问题:

    • 有限支持子查询

    • 不支持HAVING

    • 不支持OR,UNION 和 UNION ALL

    • 不支持特殊INSERT

    • 每条INSERT语句只能插入一条数据,不支持VALUES后有多行数据的语句

    • 不支持DISTINCT聚合

    • 不支持dual虚拟表查询

    • 不支持SELECT LAST_INSERT_ID(), 不支持自增序列

    • 不支持CASE WHEN

2.2 实现数据库的秒级平滑2N扩容

**扩容部署架构: **

파일

2.2.1 新增数据库VIP

  1. 在Server2节点, 增加VIP

    修改/etc/keepalived/keepalived.conf

    global_defs {
       router_id vip2
    }
    vrrp_instance VI_1 {            #vrrp实例定义
        state BACKUP               #lvs的状态模式,MASTER代表主, BACKUP代表备份节点
        interface ens33               #绑定对外访问的网卡
        virtual_router_id 112        #虚拟路由标示,同一个vrrp实例采用唯一标示
        priority 100               #优先级,100代表最大优先级, 数字越大优先级越高
        advert_int 1              #master与backup节点同步检查的时间间隔,单位是秒
        authentication {           #设置验证信息
            auth_type PASS         #有PASS和AH两种
            auth_pass 6666         #验证密码,BACKUP密码须相同
        }
        virtual_ipaddress {         #KeepAlived虚拟的IP地址
            192.168.116.151
        }
    }
    virtual_server 192.168.116.151 3306 {       #配置虚拟服务器IP与访问端口
        delay_loop 6                 #健康检查时间
        persistence_timeout 0        #会话保持时间,这里要做测试, 所以设为0, 实际可根据session有效时间配置
        protocol TCP               #转发协议类型,支持TCP和UDP
        real_server 192.168.116.141 3306{    #配置服务器节点VIP1
        notify_down /usr/local/shell/mariadb.sh
        weight 1               #设置权重,越大权重越高
        TCP_CHECK {              #r状态监测设置
           connect_timeout 10       #超时配置, 单位秒
           retry 3             #重试次数
           delay_before_retry 3        #重试间隔
           connect_port 3306         #连接端口, 和上面保持一致
           }
        }
    
    }
    
    复制代码

    注意配置项:

    virtual_router_id 112        #虚拟路由标示,同一个vrrp实例采用唯一标示
    priority 100               #优先级,100代表最大优先级, 数字越大优先级越高
    复制代码

2.2.2 应用服务增加动态数据源

  1. 修改应用服务配置, 增加新的数据源, 指向新设置的VIP: 192.168.116.151

  2. 通过应用服务接口, 动态扩容调整

2.2.3 解除原双主同步

mysql -uroot -p654321

  1. 进入Server1:

    MariaDB [(none)]> stop slave;
    复制代码
  2. 进入Server2:

    MariaDB [(none)]> stop slave;
    复制代码
  3. 通过应用服务接口验证数据是否解除同步

2.2.4 安装MariaDB扩容服务器

  1. 新建两台虚拟机, 分别为Server3和Server4。

  2. 在Server3和Server4两台节点上安装MariaDB服务

    参考2.1.1 MariaDB服务安装

  3. 配置Server3与Server1,实现新的双主同步

    1. Server3节点, 修改/etc/my.cnf:
    [mysqld]
    server-id = 3
    log-bin=mysql-bin
    relay-log = mysql-relay-bin
    replicate-wild-ignore-table=mysql.%
    replicate-wild-ignore-table=information_schema.%
    log-slave-updates=on
    slave-skip-errors=all
    auto-increment-offset=2
    auto-increment-increment=2
    binlog_format=mixed
    expire_logs_days=10
    
    复制代码
    1. 重启Server3数据库
    service mariadb restart
    复制代码
    1. 创建replica用于主从同步的用户:
    MariaDB [(none)]> grant replication slave, replication client on *.* to 'replica'@'%' identified by 'replica';
    mysql> flush privileges;
    复制代码
    1. 在Server1节点,进行数据全量备份:
    mysqldump -uroot -p654321 --routines --single_transaction --master-data=2 --databases smooth > server1.sql
    
    复制代码
    1. 查看并记录master status信息:
    ...
    --
    -- Position to start replication or point-in-time recovery from
    --
    
    -- CHANGE MASTER TO MASTER_LOG_FILE='mysql-bin.000002', MASTER_LOG_POS=17748;
    ...
    
    复制代码
    1. 将备份的server1.sql通过scp命令拷贝至Server3节点。
    scp server1.sql [email protected]:/usr/local/
    复制代码
    1. 将数据还原至Server3节点:
    mysql -uroot -p654321 < /usr/local/server1.sql
    复制代码
    1. 配置主从同步信息

    根据上面的master status信息, 在Server3中执行:

    MariaDB [(none)]> change master to master_host='192.168.116.140',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000016', master_log_pos=1754, master_connect_retry=30;
    Query OK, 0 rows affected (0.01 sec)
    
    复制代码
    1. 开启主从同步:
    MariaDB [(none)]> start slave;
    Query OK, 0 rows affected (0.00 sec)
    
    复制代码

    如果出现问题, 复原主从同步信息:

    MariaDB [(none)]> reset slave;
    Query OK, 0 rows affected (0.01 sec)
    
    复制代码
    1. 检查同步状态信息:
    MariaDB [(none)]> show slave status \G
    *************************** 1. row ***************************
                   Slave_IO_State: Waiting for master to send event
                      Master_Host: 10.10.20.125
                      Master_User: replica
                      Master_Port: 3306
                    Connect_Retry: 30
                  Master_Log_File: mysql-bin.000004
              Read_Master_Log_Pos: 11174
                   Relay_Log_File: mysql-relay-bin.000002
                    Relay_Log_Pos: 1746
            Relay_Master_Log_File: mysql-bin.000004
                 Slave_IO_Running: Yes
                Slave_SQL_Running: Yes
    
    复制代码
    1. 配置Server1与Server3节点的同步

    查看Server3的日志信息:

    MariaDB [(none)]> show master status;
    +------------------+----------+--------------+------------------+
    | File             | Position | Binlog_Do_DB | Binlog_Ignore_DB |
    +------------------+----------+--------------+------------------+
    | mysql-bin.000001 |     4781 |              |                  |
    +------------------+----------+--------------+------------------+
    
    复制代码

    在Server1节点, 配置同步信息:

    MariaDB [(none)]> reset slave;
    Query OK, 0 rows affected (0.00 sec)
    
    MariaDB [(none)]> change master to master_host='192.168.116.142',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000005', master_log_pos=6931, master_connect_retry=30;
    
    MariaDB [(none)]> start slave;
    Query OK, 0 rows affected (0.00 sec)
    
    复制代码
  4. 配置Server4与Server2的双主同步

    1. Server4节点, 修改/etc/my.cnf:
    [mysqld]
    server-id = 4
    log-bin=mysql-bin
    relay-log = mysql-relay-bin
    replicate-wild-ignore-table=mysql.%
    replicate-wild-ignore-table=information_schema.%
    log-slave-updates=on
    slave-skip-errors=all
    auto-increment-offset=2
    auto-increment-increment=2
    binlog_format=mixed
    expire_logs_days=10
    
    复制代码
    1. 重启Server4数据库
    service mariadb restart
    复制代码
    1. 创建replica用于主从同步的用户:
    MariaDB [(none)]> grant replication slave, replication client on *.* to 'replica'@'%' identified by 'replica';
    mysql> flush privileges;
    复制代码
    1. 在Server2节点,进行数据全量备份:
    mysqldump -uroot -p654321 --routines --single_transaction --master-data=2 --databases smooth > server2.sql
    
    复制代码
    1. 查看并记录master status信息:
    ...
    --
    -- Position to start replication or point-in-time recovery from
    --
    
    -- CHANGE MASTER TO MASTER_LOG_FILE='mysql-bin.000003', MASTER_LOG_POS=4208;
    
    ...
    
    复制代码
    1. 将备份的server2.sql通过scp命令拷贝至Server4节点。
    scp server2.sql [email protected]:/usr/local/
    复制代码
    1. 将数据还原至Server4节点:
    mysql -uroot -p654321 < /usr/local/server2.sql
    复制代码
    1. 配置主从同步信息

    根据上面的master status信息, 在Server4中执行:

    MariaDB [(none)]> change master to master_host='192.168.116.141',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000007', master_log_pos=3006, master_connect_retry=30;
    Query OK, 0 rows affected (0.01 sec)
    
    复制代码
    1. 开启主从同步:
    MariaDB [(none)]> start slave;
    Query OK, 0 rows affected (0.00 sec)
    
    复制代码

    注意, 如果出现问题, 复原主从同步信息:

    MariaDB [(none)]> reset slave;
    Query OK, 0 rows affected (0.01 sec)
    
    复制代码
    1. 检查同步状态信息:
    MariaDB [(none)]> show slave status \G
    *************************** 1. row ***************************
                   Slave_IO_State: Waiting for master to send event
                      Master_Host: 10.10.20.125
                      Master_User: replica
                      Master_Port: 3306
                    Connect_Retry: 30
                  Master_Log_File: mysql-bin.000004
              Read_Master_Log_Pos: 11174
                   Relay_Log_File: mysql-relay-bin.000002
                    Relay_Log_Pos: 1746
            Relay_Master_Log_File: mysql-bin.000004
                 Slave_IO_Running: Yes
                Slave_SQL_Running: Yes
    
    复制代码
    1. 配置Server2与Server4节点的同步

    查看Server4的日志信息:

    MariaDB [(none)]> show master status;
    +------------------+----------+--------------+------------------+
    | File             | Position | Binlog_Do_DB | Binlog_Ignore_DB |
    +------------------+----------+--------------+------------------+
    | mysql-bin.000001 |     3696 |              |                  |
    +------------------+----------+--------------+------------------+
    
    复制代码

    在Server2节点, 配置同步信息:

    MariaDB [(none)]> reset slave;
    Query OK, 0 rows affected (0.00 sec)
    
    MariaDB [(none)]> change master to master_host='192.168.116.143',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000005', master_log_pos=5787, master_connect_retry=30;
    
    MariaDB [(none)]> start slave;
    Query OK, 0 rows affected (0.00 sec)
    
    复制代码

2.2.5 增加KeepAlived服务实现高可用

  1. 确保新增的Server3和Server4节点安装Keepalived服务。

  2. 修改Server3节点配置

    global_defs {
       router_id vip3          # 机器标识,一般设为hostname,故障发生时,邮件通知会使用到。
    }
    vrrp_instance VI_1 {            #vrrp实例定义
        state BACKUP               #lvs的状态模式,MASTER代表主, BACKUP代表备份节点
        interface ens33               #绑定对外访问的网卡
        virtual_router_id 111        #虚拟路由标示,同一个vrrp实例采用唯一标示
        priority 98               #优先级,100代表最大优先级, 数字越大优先级越高
        advert_int 1              #master与backup节点同步检查的时间间隔,单位是秒
        authentication {           #设置验证信息
            auth_type PASS         #有PASS和AH两种
            auth_pass 6666         #验证密码,BACKUP密码须相同
        }
        virtual_ipaddress {         #KeepAlived虚拟的IP地址
            192.168.116.150
        }
    }
    virtual_server 192.168.116.150 3306 {       #配置虚拟服务器IP与访问端口
        delay_loop 6                 #健康检查时间
        persistence_timeout 0        #会话保持时间,这里要做测试, 所以设为0, 实际可根据session有效时间配置
        protocol TCP               #转发协议类型,支持TCP和UDP
        real_server 192.168.116.142 3306{    #配置服务器节点VIP3
        notify_down /usr/local/shell/mariadb.sh
        weight 1               #设置权重,越大权重越高
        TCP_CHECK {              #r状态监测设置
           connect_timeout 10       #超时配置, 单位秒
           retry 3             #重试次数
           delay_before_retry 3        #重试间隔
           connect_port 3306         #连接端口, 和上面保持一致
           }
        }
    
    }
    
    复制代码

    注意里面IP配置正确, 修改完成后重启服务。

    创建关闭脚本mariadb.sh

    /usr/local/shell/mariadb.sh:

    pkill keepalived
    复制代码

    加入执行权限:

    chmod a+x mariadb.sh
    复制代码
  3. 修改Server4节点配置

    global_defs {
       router_id vip4          # 机器标识,一般设为hostname,故障发生时,邮件通知会使用到。
    }
    vrrp_instance VI_1 {            #vrrp实例定义
        state BACKUP               #lvs的状态模式,MASTER代表主, BACKUP代表备份节点
        interface ens33               #绑定对外访问的网卡
        virtual_router_id 112        #虚拟路由标示,同一个vrrp实例采用唯一标示
        priority 98               #优先级,100代表最大优先级, 数字越大优先级越高
        advert_int 1              #master与backup节点同步检查的时间间隔,单位是秒
        authentication {           #设置验证信息
            auth_type PASS         #有PASS和AH两种
            auth_pass 6666         #验证密码,BACKUP密码须相同
        }
        virtual_ipaddress {         #KeepAlived虚拟的IP地址
            192.168.116.151
        }
    }
    virtual_server 192.168.116.151 3306 {       #配置虚拟服务器IP与访问端口
        delay_loop 6                 #健康检查时间
        persistence_timeout 0        #会话保持时间,这里要做测试, 所以设为0, 实际可根据session有效时间配置
        protocol TCP               #转发协议类型,支持TCP和UDP
        real_server 192.168.116.143 3306{    #配置服务器节点VIP4
        notify_down /usr/local/shell/mariadb.sh
        weight 1               #设置权重,越大权重越高
        TCP_CHECK {              #r状态监测设置
           connect_timeout 10       #超时配置, 单位秒
           retry 3             #重试次数
           delay_before_retry 3        #重试间隔
           connect_port 3306         #连接端口, 和上面保持一致
           }
        }
    
    }
    
    
    复制代码

    创建关闭脚本mariadb.sh

    /usr/local/shell/mariadb.sh:

    pkill keepalived
    复制代码

    给所有的用户组加入执行权限:

    chmod a+x mariadb.sh
    复制代码
  4. 修改完后重启Keepalived服务。

2.2.6 清理数据并验证

  1. 通过应用服务动态扩容接口做调整和验证

  2. 在Server1节点清理数据

    根据取模规则, 保留accountNo为偶数的数据

    delete from t_trade_order where accountNo % 2 != 0
    复制代码
  3. 在Server2节点清理数据

    根据取模规则, 保留accountNo为奇数的数据

    delete from t_trade_order where accountNo % 2 != 1
    复制代码

3.keepalived高可用配置大全

在Server1(192.168.116.140)中执行:

MariaDB [(none)]> change master to master_host='192.168.116.141',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000005', master_log_pos=3207, master_connect_retry=30;

复制代码

在Server2(192.168.116.141)中执行:

MariaDB [(none)]> change master to master_host='192.168.116.140',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000012', master_log_pos=1951, master_connect_retry=30;

复制代码

在Server3(192.168.116.142)中执行:

MariaDB [(none)]> change master to master_host='192.168.116.140',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000013', master_log_pos=2781, master_connect_retry=30;
Query OK, 0 rows affected (0.01 sec)
复制代码

在Server4(192.168.116.143)中执行:

MariaDB [(none)]> change master to master_host='192.168.116.141',master_user='replica', master_password='replica', master_port=3306, master_log_file='mysql-bin.000005', master_log_pos=7358, master_connect_retry=30;
Query OK, 0 rows affected (0.01 sec)
复制代码

Server1和Server2双主关系

Server1: keepalived.conf

vi /etc/keepalived/keepalived.conf

global_defs {
   router_id vip1
}
vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    virtual_router_id 111
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 6666
    }
    virtual_ipaddress {
        192.168.116.150
    }
}
virtual_server 192.168.116.150 3306 {
    delay_loop 6
    lb_algo rr
    lb_kind DR // NAT|DR|TUN
    persistence_timeout 0
    protocol TCP
    real_server 192.168.116.140 3306 {
    notify_down /usr/local/shell/mariadb.sh
    weight 1
    TCP_CHECK {
       connect_timeout 10
       retry 3
       delay_before_retry 3
       connect_port 3306
       }
    }
}
复制代码

Server2:keepalived.conf

vi /etc/keepalived/keepalived.conf

global_defs {
   router_id vip2
}
vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    virtual_router_id 111
    priority 98
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 6666
    }
    virtual_ipaddress {
        192.168.116.150
    }
}
virtual_server 192.168.116.150 3306 {
    delay_loop 6
    lb_algo rr
    lb_kind DR
    persistence_timeout 0
    protocol TCP
    real_server 192.168.116.141 3306{
    notify_down /usr/local/shell/mariadb.sh
    weight 1
    TCP_CHECK {
       connect_timeout 10
       retry 3
       delay_before_retry 3
       connect_port 3306
       }
    }
}
复制代码

새 데이터베이스 VIP

Server2:keepalived.conf

vi /etc/keepalived/keepalived.conf

global_defs {
   router_id vip2
}
vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    virtual_router_id 112
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 6666
    }
    virtual_ipaddress {
        192.168.116.151
    }
}
virtual_server 192.168.116.151 3306 {
    delay_loop 6
    persistence_timeout 0
    protocol TCP
    real_server 192.168.116.141 3306{
    notify_down /usr/local/shell/mariadb.sh
    weight 1
    TCP_CHECK {
       connect_timeout 10
       retry 3
       delay_before_retry 3
       connect_port 3306
       }
    }
}
复制代码

Server1과 Server3 간의 이중 마스터 관계

Server3: keepalived.conf

vi /etc/keepalived/keepalived.conf

global_defs {
   router_id vip3
}
vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    virtual_router_id 111
    priority 98
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 6666
    }
    virtual_ipaddress {
        192.168.116.150
    }
}
virtual_server 192.168.116.150 3306 {
    delay_loop 6
    lb_algo rr
    lb_kind DR
    persistence_timeout 0
    protocol TCP
    real_server 192.168.116.142 3306 {
    notify_down /usr/local/shell/mariadb.sh
    weight 1
    TCP_CHECK {
       connect_timeout 10
       retry 3
       delay_before_retry 3
       connect_port 3306
       }
    }
}
复制代码

Server2와 Server4 간의 이중 마스터 관계

Server4: keepalived.conf

vi /etc/keepalived/keepalived.conf

global_defs {
   router_id vip4
}
vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    virtual_router_id 112
    priority 98
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 6666
    }
    virtual_ipaddress {
        192.168.116.151
    }
}
virtual_server 192.168.116.151 3306 {
    delay_loop 6
    lb_algo rr
    lb_kind DR
    persistence_timeout 0
    protocol TCP
    real_server 192.168.116.143 3306{
    notify_down /usr/local/shell/mariadb.sh
    weight 1
    TCP_CHECK {
       connect_timeout 10
       retry 3
       delay_before_retry 3
       connect_port 3306
       }
    }
}
复制代码

이 기사는 传智教育博学谷교육 및 연구 팀에서 게시합니다.

이 글이 도움이 되셨다면 환영 关注해 주시고 点赞, 제안이 留言评论있으시면 환영 합니다 私信.

출처를 밝혀주세요!

рекомендация

отjuejin.im/post/7166859294615273480
рекомендация