Mysql高可用

第1章 MySQL 高可用

主从高可用要求

1.监控所有节点

2.failover  vip通知客户端

3.数据补偿功能

1.1 MHA简介

1、三台mysql独立节点实例,开启1主2从GTID复制结构

2、关闭各节点relay-log自动删除功能

3、各节点部署node工具包及依赖包

4、选择其中一个从节点进行部署manager工具包

5、各节点ssh秘钥互信配置

6、配置manager节点配置文件(注意在数据库中添加mha管理用户和密码)

7、做ssh互信检查和主从状态检查

8、开启MHA功能

-----------------

1.1.1 介绍

实现原理:MHA 是由日本Mysql 专家用Perl 写的一套Mysql 故障切换方案以保障数据库的高可用性,它的功能是能在0-30s 之内实现主Mysql 故障转移(failover),MHA 故障转移可以很好的帮我们解决从库数据的一致性问题,同时最大化挽回故障发生后的数据。MHA 里有两个角色一个是node 节点 一个是manager 节点,要实现这个MHA,必须最少要三台数据库服务器,一主多备,即一台充当master,一台充当master 的备份机,另外一台是从属机,这里实验为了实现更好的效果使用四台机器,需要说明的是一旦主服务器宕机,备份机即开始充当master 提供服务,如果主服务器上线也不会再成为master 了,因为如果这样数据库的一致性就被改变了。

该软件由两部分组成:MHA Manager(管理节点)和MHA Node(数据节点)。MHA Manager 可以单独部署在一台独立的机器上管理多个master-slave 集群,也可以部署在一台slave 节点上。MHA Node 运行在每台MySQL 服务器上,MHA Manager 会定时探测集群中的master 节点,当master 出现故障时,它可以自动将最新数据的slave 提升为新的master,然后将所有其他的slave 重新指向新的master。整个故障转移过程对应用程序完全透明。在MHA 自动故障切换过程中,MHA 试图从宕机的主服务器上保存二进制日志,最大程度的保证数据的不丢失,但这并不总是可行的。例如,如果主服务器硬件故障或无法通过ssh 访问,MHA 没法保存二进制日志,只进行故障转移而丢失了最新的数据。使用MySQL 5.5 的半同步复制,可以大大降低数据丢失的风险。MHA 可以与半同步复制结合起来。如果只有一个slave 已经收到了最新的二进制日志,MHA 可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性。

目前MHA 主要支持一主多从的架构,要搭建MHA,要求一个复制集群中必须最少有三台数据库服务器,一主二从,即一台充当master,一台充当备用master,另外一台充当从库,因为至少需要三台服务器,出于机器成本的考虑,淘宝也在该基础上进行了改造,目前淘宝TMHA 已经支持一主一从。

官方介绍:https://code.google.com/p/mysql-master-ha/

1.1.2 MHA工作流程

1.从宕机崩溃的master 保存二进制日志事件(binlog events);

2.识别含有最新更新的slave;

3.应用差异的中继日志(relay log)到其他的slave;

4.应用从master 保存的二进制日志事件(binlog events);

5.提升一个slave 为新的master;

6.使其他的slave 连接新的master 进行复制;

1.1.3 MHA架构图

1.1.4 MHA工具介绍

主要包括以下几个工具:

1.masterha_check_ssh 检查MHA 的SSH 配置状况

2.masterha_check_repl 检查MySQL 复制状况

3.masterha_manger 启动MHA

4.masterha_check_status 检测当前MHA 运行状态

5.masterha_master_monitor 检测master 是否宕机

6.masterha_master_switch 控制故障转移(自动或者手动)

7.masterha_conf_host 添加或删除配置的server 信息

Node 工具包

这些工具通常由MHA Manager 的脚本触发,无需人为操作)主要包括以下几个工具:

save_binary_logs 保存和复制master 的二进制日志

apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的slave

filter_mysqlbinlog 去除不必要的ROLLBACK 事件(MHA 已不再使用这个工具)

purge_relay_logs 清除中继日志(不会阻塞SQL 线程)

注意:

为了尽可能的减少主库硬件损坏宕机造成的数据丢失,因此在配置MHA 的同时建议配置成MySQL 5.5 的半同步复制。关于半同步复制原理各位自己进行查阅。(不是必须)

1.1.5 MHA优点

²  自动故障转移快

²  主库崩溃不存在数据一致性的问题

²  不需要对当前mysql环境做重大修改

²  不需要添加额外的服务器(仅一台master就可以管理上百个replication)

²  性能优秀,可工作在本同步复制和异步复制,当监控mysql状态时只需要每隔N秒向master发送ping包(默认3秒),所以对性能没有影响

²  只要replication支持的存储引擎,MHA都支持不会局限于innodb引擎。

1.2 配置主从GTID

1.2.1 先决条件

²  主库和从库都要开启binlog

²  主库和从库server-id不同

²  要有主从复制用户

1.2.2 修改配置文件开启GTID

主库:

log_bin=mysql-bin

server_id = 1
gtid-mode=on                        --启用gtid类型,否则就是普通的复制架构

enforce-gtid-consistency=true       --强制GTID的一致性

log-slave-updates=1                 --slave更新是否记入日志

 

slave01:

log_bin=mysql-bin

server_id = 2

gtid-mode=on

enforce-gtid-consistency=true

log-slave-updates
slave02:

log_bin=mysql-bin

server_id = 3
gtid-mode=on

enforce-gtid-consistency=true

log-slave-updates

1.2.3 数据库配置

主库:创建主从复制用户

grant replication slave  on *.* to repl@'10.0.0.%' identified by '123';

从库开启

change master to master_host='10.0.0.51',master_user='repl',master_password='123' ,MASTER_AUTO_POSITION=1;

start slave;

 

mysql> show slave status\G

1.2.4 主从库设置

mysql> set global relay_log_purge = 0;#禁用自动删除relaylog
设置从库只读(不能再主库执行)
set global read_only=1;
在配置文件添加禁用自动删除relaylog功能
relay_log_purge = 0

1.3 部署MHA

1.3.1 基础环境

所有节点安装

root@mysql-db01 ~]# yum install perl-DBD-MySQL -y

rpm -ivh mha4mysql-node-0.56-0.el6.noarch.rpm

创建管理用户:

grant all privileges on *.* to mha@'10.0.0.5%' identified by 'mha';#主库执行从库也就也有了

命令软链接:三台都需要操作

[root@mysql-db01 tools]# ln -s /application/mysql/bin/mysqlbinlog /usr/bin/mysqlbinlog

[root@mysql-db01 tools]#  ln -s /application/mysql/bin/mysql /usr/bin/mysql

1.3.2 部署管理节点(mha-master)

统一安装在10.0.0.53机器上(可以安装在一台从库,或者其他一台机器上不能使主库)

wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-6.repo

安装依赖
yum install -y perl-Config-Tiny epel-release perl-Log-Dispatch perl-Parallel-ForkManager perl-Time-HiRes
[root@mysql-db03 tools]# rpm -ivh mha4mysql-manager-0.56-0.el6.noarch.rpm

创建日志和配置文件目录

[root@mysql-db03 tools]# mkdir -p /var/log/mha/app1   可以管理多套主从复制

[root@mysql-db03 tools]#  mkdir -p /etc/mha

创建配置文件(不需要的配置不要留着,注释没用,切换后会重写)

[root@mysql-db03 ~]# vim /etc/mha/app1.cnf
[server default]#全局主配置文件

 

[server default]                        
manager_log=/var/log/mha/app1/manager
manager_workdir=/var/log/mha/app1
master_binlog_dir=/data/mysql
user=mha
password=mha
ping_interval=2
repl_password=123
repl_user=repl
ssh_user=root

[server1]
hostname=10.0.0.51
port=3306

[server2]
hostname=10.0.0.52
port=3306

[server3]
hostname=10.0.0.53
port=3306

1.3.3 配置SSH信任(所有节点)

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa >/dev/null 2>&1

ssh-copy-id -i /root/.ssh/id_dsa.pub [email protected]

ssh-copy-id -i /root/.ssh/id_dsa.pub [email protected]

ssh-copy-id -i /root/.ssh/id_dsa.pub [email protected]

1.3.4 启动测试

[root@mysql-db03 ~]# masterha_check_ssh --conf=/etc/mha/app1.cnf  检测ssh

Sun Dec 10 12:35:17 2017 - [warning] Global configuration file /etc/masterha_default.cnf not found. Skipping.

Sun Dec 10 12:35:17 2017 - [info] Reading application default configuration from /etc/mha/app1.cnf..

Sun Dec 10 12:35:17 2017 - [info] Reading server configuration from /etc/mha/app1.cnf..

Sun Dec 10 12:35:17 2017 - [info] Starting SSH connection tests..

Sun Dec 10 12:35:18 2017 - [debug]

Sun Dec 10 12:35:18 2017 - [debug]  Connecting via SSH from [email protected](10.0.0.51:22) to [email protected](10.0.0.52:22)..

Sun Dec 10 12:35:18 2017 - [debug]   ok.

Sun Dec 10 12:35:18 2017 - [debug]  Connecting via SSH from [email protected](10.0.0.51:22) to [email protected](10.0.0.53:22)..

Sun Dec 10 12:35:18 2017 - [debug]   ok.

Sun Dec 10 12:35:19 2017 - [debug]

Sun Dec 10 12:35:18 2017 - [debug]  Connecting via SSH from [email protected](10.0.0.52:22) to [email protected](10.0.0.51:22)..

Sun Dec 10 12:35:18 2017 - [debug]   ok.

Sun Dec 10 12:35:18 2017 - [debug]  Connecting via SSH from [email protected](10.0.0.52:22) to [email protected](10.0.0.53:22)..

Sun Dec 10 12:35:18 2017 - [debug]   ok.

Sun Dec 10 12:35:19 2017 - [debug]

Sun Dec 10 12:35:19 2017 - [debug]  Connecting via SSH from [email protected](10.0.0.53:22) to [email protected](10.0.0.51:22)..

Sun Dec 10 12:35:19 2017 - [debug]   ok.

Sun Dec 10 12:35:19 2017 - [debug]  Connecting via SSH from [email protected](10.0.0.53:22) to [email protected](10.0.0.52:22)..

Sun Dec 10 12:35:19 2017 - [debug]   ok.

Sun Dec 10 12:35:19 2017 - [info] All SSH connection tests passed successfully.

1.3.5 检测主从

[root@mysql-db03 ~]# masterha_check_repl --conf=/etc/mha/app1.cnf 检测主从

Sun Dec 10 12:45:09 2017 - [warning] Global configuration file /etc/masterha_default.cnf not found. Skipping.

Sun Dec 10 12:45:09 2017 - [info] Reading application default configuration from /etc/mha/app1.cnf..

………………………

 

MySQL Replication Health is OK.

[root@mysql-db03 ~]#

1.3.6 启动mha

[root@mysql-db03 ~]# nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/mha/app1/manager.log 2>&1 &

[1] 2907

--remove_dead_master_conf #指定删除down机的server标签
--ignore_last_failover#忽略上一次切换
自动切换一次需要在八个小时之后才会切换

[root@mysql-db03 ~]#
[root@mysql-db03 ~]# masterha_check_status --conf=/etc/mha/app1.cnf

app1 (pid:2907) is running(0:PING_OK), master:10.0.0.51

[root@mysql-db03 ~]#

1.3.7 停止MHA

masterha_stop --conf=/etc/mha/app1.cnf

1.4 配置VIP漂移

[root@mysql-db03 ~]# vim  /etc/mha/app1.cnf
[server default]

master_ip_failover_script=/usr/local/bin/master_ip_failover

将脚本添加到文件‘

cd /usr/local/bin/

mv  /server/tools/master_ip_failover   /usr/local/bin/  
[root@mysql-db03 bin]# chmod +x master_ip_failover
[root@mysql-db03 bin]# dos2unix master_ip_failover

dos2unix: converting file master_ip_failover to UNIX format ...

内容

vim  /usr/local/bin/master_ip_failover
添加内容。。。。
my $vip = '10.0.0.55/24';
my $key = '1';
my $ssh_start_vip = "/sbin/ifconfig eth0:$key $vip";
my $ssh_stop_vip = "/sbin/ifconfig eth0:$key down";

重启mha

[root@mysql-db03 ~]# masterha_stop --conf=/etc/mha/app1.cnf 停止

Stopped app1 successfully.

[1]+  Exit 1 nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/mha/app1/manager.log 2>&1 &

[root@mysql-db03 ~]#

[root@mysql-db03 bin]#

手工在主库上绑定vip,注意一定要和配置文件中的ethN一致,我的是eth0:1(1是key指定的值)
[root@mysql-db03 bin]# ifconfig eth0:1 10.0.0.55/24

[root@mysql-db03 bin]# nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/mha/app1/manager.log 2>&1 &

[1] 7841

[root@mysql-db03 bin]# masterha_check_status --conf=/etc/mha/app1.cnf

app1 (pid:7841) is running(0:PING_OK), master:10.0.0.52

[root@mysql-db03 bin]#

1.4.1 漂移脚本:

[root@mysql-db03 bin]# cat master_ip_failover

#!/usr/bin/env perl

 

use strict;

use warnings FATAL => 'all';

 

use Getopt::Long;

 

my (

    $command,          $ssh_user,        $orig_master_host, $orig_master_ip,

    $orig_master_port, $new_master_host, $new_master_ip,    $new_master_port

);

 

my $vip = '10.0.0.55/24';

my $key = '0';

my $ssh_start_vip = "/sbin/ifconfig eth0:$key $vip";

my $ssh_stop_vip = "/sbin/ifconfig eth0:$key down";

 

GetOptions(

    'command=s'          => \$command,

    'ssh_user=s'         => \$ssh_user,

    'orig_master_host=s' => \$orig_master_host,

    'orig_master_ip=s'   => \$orig_master_ip,

    'orig_master_port=i' => \$orig_master_port,

    'new_master_host=s'  => \$new_master_host,

    'new_master_ip=s'    => \$new_master_ip,

    'new_master_port=i'  => \$new_master_port,

);

 

exit &main();

 

sub main {

 

    print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";

 

    if ( $command eq "stop" || $command eq "stopssh" ) {

 

        my $exit_code = 1;

        eval {

            print "Disabling the VIP on old master: $orig_master_host \n";

            &stop_vip();

            $exit_code = 0;

        };

        if ($@) {

            warn "Got Error: $@\n";

            exit $exit_code;

        }

        exit $exit_code;

    }

    elsif ( $command eq "start" ) {

 

        my $exit_code = 10;

        eval {

            print "Enabling the VIP - $vip on the new master - $new_master_host \n";

            &start_vip();

            $exit_code = 0;

        };

        if ($@) {

            warn $@;

            exit $exit_code;

        }

        exit $exit_code;

    }

    elsif ( $command eq "status" ) {

        print "Checking the Status of the script.. OK \n";

        exit 0;

    }

    else {

        &usage();

        exit 1;

    }

}

 

sub start_vip() {

    `ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;

}

sub stop_vip() {

     return 0  unless  ($ssh_user);

    `ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;

}

 

sub usage {

    print

    "Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";

}

[root@mysql-db03 bin]#

停掉主库

[root@mysql-db02 tools]# /etc/init.d/mysqld stop

开启mha

[root@mysql-db03 bin]# nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/mha/app1/manager.log 2>&1 &

[1] 8157

[root@mysql-db03 bin]# masterha_check_status --conf=/etc/mha/app1.cnf

app1 (pid:8157) is running(0:PING_OK), master:10.0.0.51此时主库是51那么漂移成功

[root@mysql-db03 bin]#

1.4.2 测试切换

打开日志

[root@mysql-db03 ~]# tail -f /var/log/mha/app1/manager

[root@mysql-db01 tools]# /etc/init.d/mysqld stop  #停掉主库
注意:当主库当掉之后,MHA自动切换到一台机器后,MHA会自动关闭,需要修改后手动开启MHA

日志显示

 

Started automated(non-interactive) failover.

Selected 10.0.0.52(10.0.0.52:3306) as a new master.

10.0.0.52(10.0.0.52:3306): OK: Applying all logs succeeded.

10.0.0.53(10.0.0.53:3306): OK: Slave started, replicating from 10.0.0.52(10.0.0.52:3306)

10.0.0.52(10.0.0.52:3306): Resetting slave info succeeded.

Master failover to 10.0.0.52(10.0.0.52:3306) completed successfully.

1、修复旧master,并启动。

2、找到日志中的change master 语句,将旧的mater变成从

mysql> CHANGE MASTER TO MASTER_HOST='10.0.0.52', MASTER_PORT=3306, MASTER_AUTO_POSITION=1, MASTER_USER='rep', MASTER_PASSWORD='oldboy123';

Query OK, 0 rows affected, 2 warnings (0.12 sec)

 

mysql> start slave;

Query OK, 0 rows affected (0.01 sec)

3、添加配置文件中的server标签

[root@mysql-db03 ~]# vim  /etc/mha/app1.cnf
[server1]

hostname=10.0.0.51

port=3306

4、启动mha查看状态

[root@mysql-db03 ~]# nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/mha/app1/manager.log 2>&1 &

[1] 6462

[root@mysql-db03 ~]# masterha_check_status --conf=/etc/mha/app1.cnf

app1 (pid:6462) is running(0:PING_OK), master:10.0.0.52

[root@mysql-db03 ~]#

指定切换到哪一台节点上

[server1]

hostname=10.0.0.51

port=3306

 

 

[server2]

#candidate_master=1在哪一个server标签上设置就会切换到哪一个机器。就不会按照binlog位置切换了。

#check_repl_delay=0

hostname=10.0.0.52

port=3306

 

[server3]

hostname=10.0.0.53

port=3306

#candidate_master=1

#check_repl_delay=0

1.4.3 配置文件详解

[server default]

#设置manager的工作目录

manager_workdir=/var/log/masterha/app1

#设置manager的日志

manager_log=/var/log/masterha/app1/manager.log

#设置master 保存binlog的位置,以便MHA可以找到master的日志,我这里的也就是mysql的数据目录

master_binlog_dir=/data/mysql

#设置自动failover时候的切换脚本

master_ip_failover_script= /usr/local/bin/master_ip_failover

#设置手动切换时候的切换脚本

master_ip_online_change_script= /usr/local/bin/master_ip_online_change

#设置mysql中root用户的密码,这个密码是前文中创建监控用户的那个密码

password=123456

#设置监控用户root

user=root

#设置监控主库,发送ping包的时间间隔,尝试三次没有回应的时候自动进行failover

ping_interval=1

#设置远端mysql在发生切换时binlog的保存位置

remote_workdir=/tmp

#设置复制用户的密码

repl_password=123456

#设置复制环境中的复制用户名

repl_user=rep

#设置发生切换后发送的报警的脚本

report_script=/usr/local/send_report

#一旦MHA到server02的监控之间出现问题,MHA Manager将会尝试从server03登录到server02

secondary_check_script= /usr/local/bin/masterha_secondary_check -s server03 -s server02 --user=root --master_host=server02 --master_ip=192.168.0.50

 

 --master_port=3306

#设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机放在发生脑裂,这里没有使用)

shutdown_script=""

#设置ssh的登录用户名

ssh_user=root

 

[server1]

hostname=10.0.0.51

 

port=3306

 

[server2]

hostname=10.0.0.52

 

port=3306

#设置为候选master,如果设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个主库不是集群中事件最新的slave

candidate_master=1

#默认情况下如果一个slave落后master 100M的relay logs的话,MHA将不会选择该slave作为一个新的master,因为对于这个slave的恢复需要花费很长时间,通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master

check_repl_delay=0

1.5 binlog-server配置

修改配置文件(先决条件有一套带有GTID的MHA集群)

找一台额外的机器,必须要有5.6以上的版本,支持gtid并开启,我们直接用的第二个slave

[root@mysql-db03 bin]# vim  /etc/mha/app1.cnf
[binlog1]

no_master=1

hostname=10.0.0.53

master_binlog_dir=/data/mysql/binlog/

创建目录

[root@mysql-db03 bin]# mkdir -p /data/mysql/binlog/
状态查看
[root@mysql-db03 binlog]#  masterha_check_status --conf=/etc/mha/app1.cnf

app1 is stopped(2:NOT_RUNNING).

从主库拉去binlog日志

[root@mysql-db03 bin]# cd /data/mysql/binlog/

[root@mysql-db03 binlog]# ll

total 0

[root@mysql-db03 binlog]# mysqlbinlog  -R --host=10.0.0.51 --user=mha --password=mha --raw  --stop-never mysql-bin.000001 &

[root@mysql-db03 binlog]#  masterha_stop --conf=/etc/mha/app1.cnf
nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/mha/app1/manager.log 2>&1
masterha_check_status --conf=/etc/mha/app1.cnf

1.6 send_report

(1)准备发邮件的脚本(我们已经为大家准备好了script.tar.gz)

    将以上脚本解压到 /usr/local/bin

(2)将准备好的脚本添加到mha配置文件中,让其调用

vi /etc/mha/app1.cnf

report_script=/usr/local/bin/send

(3)停止MHA

        /usr/bin/masterha_stop --conf=/etc/mha/app1.cnf

(4)开启MHA

   

        nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/mha/app1/manager.log 2>&1 &

       

(5) 关闭主库,看警告邮件

 

change master to master_host='10.0.0.53',master_user='repl',master_password='123' ,MASTER_AUTO_POSITION=1;

   

----------------------------

1.7 mysql中间键Atlas

1.7.1 主要功能

1、读写分离

2、从库负载均衡

3、IP过滤

4、自动分表

5、DBA可以平滑上下线DB

6、自动摘除宕机的DB

1.7.2 Atlas相对于官方对的MySQL-proxy

1.7.3 安装

[root@mysql-db01 tools]# rpm -ivh Atlas-2.2.1.el6.x86_64.rpm

1.7.4 修改配置文件

配置加密密码

[root@mysql-db01 bin]# cd /usr/local/mysql-proxy/   

[root@mysql-db01 bin]#/usr/local/mysql-proxy/bin/encrypt  123      ---->制作加密密码

3yb5jEku5h4=

 [root@mysql-db01 bin]# vim  /usr/local/mysql-proxy/conf/test

[mysql-proxy]

 

#带#号的为非必需的配置项目

 

#管理接口的用户名

admin-username = user

 

#管理接口的密码

admin-password = pwd

 

#Atlas后端连接的MySQL主库的IP和端口,可设置多项,用逗号分隔

proxy-backend-addresses = 10.0.0.55:3306

 

#Atlas后端连接的MySQL从库的IP和端口,@后面的数字代表权重,用来作负载均衡,若省略则默认为1,可设置多项,用逗号分隔

proxy-read-only-backend-addresses = 10.0.0.52:3306,10.0.0.53:3306

 

#用户名与其对应的加密过的MySQL密码,密码使用PREFIX/bin目录下的加密程序encrypt加密,下行的user1和user2为示例,将其替换为你的MySQL的用户名和加密密码!

pwds = root:1N/CNLSgqXuTZ6zxvGQr9A==,rep:1N/CNLSgqXuTZ6zxvGQr9A==,mha:O2jBXONX098=

 

#设置Atlas的运行方式,设为true时为守护进程方式,设为false时为前台方式,一般开发调试时设为false,线上运行时设为true,true后面不能有空格。

daemon = true

 

#设置Atlas的运行方式,设为true时Atlas会启动两个进程,一个为monitor,一个为worker,monitor在worker意外退出后会自动将其重启,设为false时只有worker,没有monitor,一般开发调试时设为false,线上运行时设为true,true后面不能有空格。

keepalive = true

 

#工作线程数,对Atlas的性能有很大影响,可根据情况适当设置

event-threads = 8

 

#日志级别,分为message、warning、critical、error、debug五个级别

log-level = error

 

#日志存放的路径

log-path = /usr/local/mysql-proxy/log

 

#SQL日志的开关,可设置为OFF、ON、REALTIME,OFF代表不记录SQL日志,ON代表记录SQL日志,REALTIME代表记录SQL日志且实时写入磁盘,默认为OFF

sql-log = ON

 

#慢日志输出设置。当设置了该参数时,则日志只输出执行时间超过sql-log-slow(单位:ms)的日志记录。不设置该参数则输出全部日志。

#sql-log-slow = 10

 

#实例名称,用于同一台机器上多个Atlas实例间的区分

#instance = test

 

#Atlas监听的工作接口IP和端口

proxy-address = 0.0.0.0:3307

 

#Atlas监听的管理接口IP和端口

admin-address = 0.0.0.0:2345

 

#分表设置,此例中person为库名,mt为表名,id为分表字段,3为子表数量,可设置多项,以逗号分隔,若不分表则不需要设置该项

#tables = person.mt.id.3

 

#默认字符集,设置该项后客户端不再需要执行SET NAMES语句

charset = utf8

 

#允许连接Atlas的客户端的IP,可以是精确IP,也可以是IP段,以逗号分隔,若不设置该项则允许所有IP连接,否则只允许列表中的IP连接

#client-ips = 127.0.0.1, 192.168.1

 

#Atlas前面挂接的LVS的物理网卡的IP(注意不是虚IP),若有LVS且设置了client-ips则此项必须设置,否则可以不设置

#lvs-ips = 192.168.1.1

[root@mysql-db01 conf]#

1.7.5 开启

[root@mysql-db01 conf]# /usr/local/mysql-proxy/bin/mysql-proxyd test start

OK: MySQL-Proxy of test is started

[root@mysql-db01 conf]#

查看有两个进程

[root@mysql-db01 conf]# netstat -luntp

Active Internet connections (only servers)

Proto Recv-Q Send-Q Local Address               Foreign Address             State       PID/Program name  

tcp        0      0 0.0.0.0:2345                0.0.0.0:*                   LISTEN      3936/mysql-proxy   

tcp        0      0 0.0.0.0:3307                0.0.0.0:*                   LISTEN      3936/mysql-pro

1.7.6 登录

[root@mysql-db01 data]# mysql -uuser -ppwd -h127.0.0.1 -P2345

读的测试

 

show variables like 'server_id';

set global read_only=1;

连接测试

mysql -umha -pmha -h10.0.0.53 -P33060

create database db1;

动态添加删除节点:

REMOVE BACKEND 3;

ADD SLAVE 10.0.0.53:3306;

SAVE CONFIG;

mysql> SELECT * FROM help

    -> ;

+----------------------------+---------------------------------------------------------+

| command                    | description                                             |

+----------------------------+---------------------------------------------------------+

| SELECT * FROM help         | shows this help                                         |

| SELECT * FROM backends     | lists the backends and their state后端数据库                      |

| SET OFFLINE $backend_id    | offline backend server, $backend_id is backend_ndx's id |平滑下线

| SET ONLINE $backend_id     | online backend server, ...                              |平滑上线

| ADD MASTER $backend        | example: "add master 127.0.0.1:3306", ...               |添加master

| ADD SLAVE $backend         | example: "add slave 127.0.0.1:3306", ...                |添加slave

| REMOVE BACKEND $backend_id | example: "remove backend 1", ...                        |

| SELECT * FROM clients      | lists the clients                                       |

| ADD CLIENT $client         | example: "add client 192.168.1.2", ...                  |

| REMOVE CLIENT $client      | example: "remove client 192.168.1.2", ...               |

| SELECT * FROM pwds         | lists the pwds                                          |

| ADD PWD $pwd               | example: "add pwd user:raw_password", ...  自动加密密码             |

| ADD ENPWD $pwd             | example: "add enpwd user:encrypted_password", ...  需要先加密密码后输入需要添加加密后的密码     |

| REMOVE PWD $pwd            | example: "remove pwd user", ...                         |

| SAVE CONFIG                | save the backends to config file   保存配置                     |

| SELECT VERSION             | display the version of Atlas   

1.7.7 自动分表

school.stu    1000w

id   name

stu_0   stu_1   stu_2   stu_3    stu_4

stu 表 1000w数据 , id  name

以上分表方式,存数据非常均匀,取数据不均与,因为要考虑业务需求

如果业务查询热点数据集中在id是1-200w这些数据,那么读取就不均匀

取模分表

n/5  取余数  (0,1,2,3,4)

(1)如果是  0  则分到 stu_0

(2)如果是  1  则分到 stu_1

(3)如果是  2  则分到 stu_2

(4)如果是  3  则分到 stu_3

(5)如果是  4  则分到 stu_4

取余数

配置文件

vi /usr/local/mysql-proxy/conf/test.cnf

tables = school.stu.id.5

重启atlas

(主库)手工创建,分表后的库和表,分别为定义的school  和 stu_0 stu_1 stu_2 stu_3 stu_4

create database school;

use school

create table stu_0 (id int,name varchar(20));

create table stu_1 (id int,name varchar(20));

create table stu_2 (id int,name varchar(20));

create table stu_3 (id int,name varchar(20));

create table stu_4 (id int,name varchar(20));

测试:

insert into stu values (3,'wang5');

 

insert into stu values (2,'li4');

 

insert into stu values (1,'zhang3');

 

insert into stu values (4,'m6');

 

insert into stu values (5,'zou7');

 

commit;

1.8 MYCAT

1.8.1 8节点结构规划

10.0.0.51:3307        <------>  10.0.0.52:3308

10.0.0.51:3308        <------>  10.0.0.52:3307

10.0.0.51:3309        .......>  10.0.0.52:3307

10.0.0.51:3310        .......>  10.0.0.52:3308

10.0.0.51:3307        <......   10.0.0.52:3309

10.0.0.51:3308        <......   10.0.0.52:3310

------------

1.8.2 节点准备:

环境清理中。。。。。

创建相应目录:

mkdir -p /data/3307/data

mkdir -p /data/3308/data

mkdir -p /data/3309/data

mkdir -p /data/3310/data

1.8.3 编辑配置文件

vim /data/3307/my.cnf

[mysqld]

basedir=/application/mysql

datadir=/data/3307/data

socket=/data/3307/mysql.sock

port=3307

log-error=/data/3307/mysql.log

log_bin=/data/3307/mysql-bin

binlog_format=row

skip-name-resolve

server-id=7

gtid-mode=on

enforce-gtid-consistency=true

log-slave-updates=1

--------------------------

vim /data/3308/my.cnf

[mysqld]

basedir=/application/mysql

datadir=/data/3308/data

port=3308

socket=/data/3308/mysql.sock

log-error=/data/3308/mysql.log

log_bin=/data/3308/mysql-bin

binlog_format=row

skip-name-resolve

server-id=8

gtid-mode=on

enforce-gtid-consistency=true

log-slave-updates=1

------------------

vim /data/3309/my.cnf

[mysqld]

basedir=/application/mysql

datadir=/data/3309/data

socket=/data/3309/mysql.sock

port=3309

log-error=/data/3309/mysql.log

log_bin=/data/3309/mysql-bin

binlog_format=row

skip-name-resolve

server-id=9

gtid-mode=on

enforce-gtid-consistency=true

log-slave-updates=1

------------------

vim /data/3310/my.cnf

[mysqld]

basedir=/application/mysql

datadir=/data/3310/data

socket=/data/3310/mysql.sock

port=3310

log-error=/data/3310/mysql.log

log_bin=/data/3310/mysql-bin

binlog_format=row

skip-name-resolve

server-id=10

gtid-mode=on

enforce-gtid-consistency=true

log-slave-updates=1

------------------

1.8.4 初始化三套数据:

/application/mysql/scripts/mysql_install_db --user=mysql --basedir=/application/mysql --datadir=/data/3307/data

/application/mysql/scripts/mysql_install_db --user=mysql --basedir=/application/mysql --datadir=/data/3308/data

/application/mysql/scripts/mysql_install_db --user=mysql --basedir=/application/mysql --datadir=/data/3309/data

/application/mysql/scripts/mysql_install_db --user=mysql --basedir=/application/mysql --datadir=/data/3310/data

1.8.5 修改权限:

touch /data/330{7..9}/mysql.log

touch /data/3310/mysql.log

chown -R mysql.mysql /data/33*

1.8.6 启动数据库:

/application/mysql/bin/mysqld_safe --defaults-file=/data/3307/my.cnf &

/application/mysql/bin/mysqld_safe --defaults-file=/data/3308/my.cnf &

/application/mysql/bin/mysqld_safe --defaults-file=/data/3309/my.cnf &

/application/mysql/bin/mysqld_safe --defaults-file=/data/3310/my.cnf &

验证:

netstat -lnp|grep 33

1.8.7 连接测试:

mysql -S /data/3307/mysql.sock -e "show variables like 'server_id'"

mysql -S /data/3308/mysql.sock -e "show variables like 'server_id'"

mysql -S /data/3309/mysql.sock -e "show variables like 'server_id'"

mysql -S /data/3310/mysql.sock -e "show variables like 'server_id'"

---------------------------

1.9 构建主从环境(GTID)

在所有配置文件中添加:

gtid-mode=on

enforce-gtid-consistency=true

log-slave-updates=1

-------

统一复制用户

1.9.1 第一套双主:

10.0.0.51:3307        <------>  10.0.0.52:3308

-------

(1)

从                    主

10.0.0.51:3307----->10.0.0.52:3308

db02:

mysql  -S /data/3308/mysql.sock

grant replication slave on *.* to repl@'10.0.0.%' identified by '123';

db01:

mysql  -S /data/3307/mysql.sock

CHANGE MASTER TO MASTER_HOST='10.0.0.52', MASTER_PORT=3308, MASTER_AUTO_POSITION=1, MASTER_USER='repl', MASTER_PASSWORD='123';

start slave;

show slave status\G

(2)

从                        主

10.0.0.52:3308----->10.0.0.51:3307

db02:

mysql  -S /data/3308/mysql.sock

CHANGE MASTER TO MASTER_HOST='10.0.0.51', MASTER_PORT=3307, MASTER_AUTO_POSITION=1, MASTER_USER='repl', MASTER_PASSWORD='123';

start slave;

show slave status\G

-------------------

1.9.2 第二套双主:

10.0.0.51:3308        <------>  10.0.0.52:3307

(1)

从                    主

10.0.0.51:3308----->10.0.0.52:3307

db02:

mysql  -S /data/3307/mysql.sock

grant replication slave on *.* to repl@'10.0.0.%' identified by '123';

db01:

mysql  -S /data/3308/mysql.sock

CHANGE MASTER TO MASTER_HOST='10.0.0.52', MASTER_PORT=3307, MASTER_AUTO_POSITION=1, MASTER_USER='repl', MASTER_PASSWORD='123';

start slave;

show slave status\G

(2)

从                        主

10.0.0.52:3307----->10.0.0.51:3308

db02:

mysql  -S /data/3307/mysql.sock

CHANGE MASTER TO MASTER_HOST='10.0.0.51', MASTER_PORT=3308, MASTER_AUTO_POSITION=1, MASTER_USER='repl', MASTER_PASSWORD='123';

start slave;

show slave status\G

1.9.3 四套普通主从:

-----------------------------

从                               主

10.0.0.51:3309        .......>  10.0.0.52:3307

--------------------------------------------

db01:

mysql  -S /data/3309/mysql.sock

CHANGE MASTER TO MASTER_HOST='10.0.0.52', MASTER_PORT=3307, MASTER_AUTO_POSITION=1, MASTER_USER='repl', MASTER_PASSWORD='123';

start slave;

show slave status\G

--------------------------------------------------

从                                  主

10.0.0.51:3310        .......>  10.0.0.52:3308

db01:

mysql  -S /data/3310/mysql.sock

CHANGE MASTER TO MASTER_HOST='10.0.0.52', MASTER_PORT=3308, MASTER_AUTO_POSITION=1, MASTER_USER='repl', MASTER_PASSWORD='123';

start slave;

show slave status\G

---------------------------------------------------

主                               从

10.0.0.51:3307        <......   10.0.0.52:3309

db02:

mysql  -S /data/3309/mysql.sock

CHANGE MASTER TO MASTER_HOST='10.0.0.51', MASTER_PORT=3307, MASTER_AUTO_POSITION=1, MASTER_USER='repl', MASTER_PASSWORD='123';

start slave;

show slave status\G

---------------------------------------------------

主                               从

10.0.0.51:3308        <......   10.0.0.52:3310

db02:

mysql  -S /data/3310/mysql.sock

CHANGE MASTER TO MASTER_HOST='10.0.0.51', MASTER_PORT=3308, MASTER_AUTO_POSITION=1, MASTER_USER='repl', MASTER_PASSWORD='123';

start slave;

show slave status\G

-----------------------

组一:

10.0.0.51:3307        <------>  10.0.0.52:3308

10.0.0.51:3307        <......   10.0.0.52:3309

10.0.0.51:3308        <......   10.0.0.52:3310

组二:

10.0.0.51:3308        <------>  10.0.0.52:3307

10.0.0.51:3309        .......>  10.0.0.52:3307

10.0.0.51:3310        .......>  10.0.0.52:3308

-----------------------

1.9.4 预先安装Java运行环境

       yum install -y java

确保本机的hostname在/etc/hosts里存在,为了防止后续启动mycat的时候会报错

    cat /etc/sysconfig/network

       HOSTNAME=db01

       [root@db01 logs]# cat /etc/hosts

       127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4

       10.0.0.51 db01

注:Mycat本机预先安装MySQL环境,需要调用mysql命令。但不需要启动MySQL实例

下载Mycat-server-xxxxx.linux.tar.gz

       http://dl.mycat.io/

解压文件

       tar -zxvf

软件目录结构

[root@temp mycat]# ls

bin  catlet  conf  lib  logs  version.txt

----------------------------

/root/mycat start

mysql -uroot -p123456 -h 127.0.0.1 -P8066

---------------------------------------

db01:

cd /root/mycat/conf/

mv schema.xml schema.xml.bak

vim schema.xml

<?xml version="1.0"?> 

<!DOCTYPE mycat:schema SYSTEM "schema.dtd"> 

<mycat:schema xmlns:mycat="http://io.mycat/">

<schema name="TESTDB" checkSQLschema="false" sqlMaxLimit="100" dataNode="dn1">

</schema> 

       <dataNode name="dn1" dataHost="localhost1" database= "wordpress" /> 

       <dataHost name="localhost1" maxCon="1000" minCon="10" balance="1"  writeType="0" dbType="mysql"  dbDriver="native" switchType="1">

              <heartbeat>select user()</heartbeat> 

       <writeHost host="db1" url="10.0.0.51:3307" user="root" password="123">

                     <readHost host="db2" url="10.0.0.52:3309" user="root" password="123" />

       </writeHost>

       </dataHost> 

</mycat:schema>

1.10 配置文件简单介绍:

(1)逻辑库:schema

<schema name="TESTDB" checkSQLschema="false" sqlMaxLimit="100" dataNode="dn1">

</schema> 

(2)数据节点:datanode

       <dataNode name="dn1" dataHost="localhost1" database= "wordpress" /> 

   

(3)数据主机:datahost(w和r) 

 

       <dataHost name="localhost1" maxCon="1000" minCon="10" balance="1"  writeType="0" dbType="mysql"  dbDriver="native" switchType="1">

              <heartbeat>select user()</heartbeat> 

       <writeHost host="db1" url="10.0.0.51:3307" user="root" password="123">

                     <readHost host="db2" url="10.0.0.52:3309" user="root" password="123" />

       </writeHost>

       </dataHost> 

---------------------------------

1.11 配置读写分离及高可用

<?xml version="1.0"?> 

<!DOCTYPE mycat:schema SYSTEM "schema.dtd"> 

<mycat:schema xmlns:mycat="http://io.mycat/">

<schema name="TESTDB" checkSQLschema="false" sqlMaxLimit="100" dataNode="dn1">

</schema> 

       <dataNode name="dn1" dataHost="localhost1" database= "world" /> 

       <dataHost name="localhost1" maxCon="1000" minCon="10" balance="1"  writeType="0" dbType="mysql"  dbDriver="native" switchType="1">

              <heartbeat>select user()</heartbeat> 

       <writeHost host="db1" url="10.0.0.51:3307" user="root" password="123">

                     <readHost host="db2" url="10.0.0.52:3309" user="root" password="123" />

       </writeHost>

    <writeHost host="db3" url="10.0.0.52:3308" user="root" password="123">

                     <readHost host="db4" url="10.0.0.51:3310" user="root" password="123" />

       </writeHost>       

       </dataHost> 

</mycat:schema>

真正的   writehost

standby  writeHost   = readhost

1.11.1 balance属性:

负载均衡类型,目前的取值有3种:

1. balance="0", 不开启读写分离机制,所有读操作都发送到当前可用的writeHost上。

2. balance="1",全部的readHost与standby writeHost参与select语句的负载均衡,简单的说,

  当双主双从模式(M1->S1,M2->S2,并且M1与 M2互为主备),正常情况下,M2,S1,S2都参与select语句的负载均衡。

3. balance="2",所有读操作都随机的在writeHost、readhost上分发。

1.11.2 writeType属性

负载均衡类型,目前的取值有2种:

1. writeType="0", 所有写操作发送到配置的第一个writeHost,

第一个挂了切到还生存的第二个writeHost,重新启动后已切换后的为主,切换记录在配置文件中:dnindex.properties .

2. writeType=“1”,所有写操作都随机的发送到配置的writeHost,但不推荐使用

switchType属性

-1 表示不自动切换

1 默认值,自动切换

2 基于MySQL主从同步的状态决定是否切换 ,心跳语句为 show slave status

db01:

mysql -S /data/3307/mysql.sock

grant all on *.* to root@'10.0.0.%' identified by '123';

mysql -S /data/3308/mysql.sock

grant all on *.* to root@'10.0.0.%' identified by '123';

mysql -S /data/3307/mysql.sock

source /root/world.sql

重启mycat

/root/mycat/bin/mycat restart

连接测试:

mysql -uroot -p123456 -h 127.0.0.1 -P8066

show variables like 'server_id';

1.11.3 故障测试

停节点

mysqladmin -S /data/3307/mysql.sock shutdown

再连接测试:

mysql -uroot -p123456 -h 127.0.0.1 -P8066

show variables like 'server_id';

启动节点再测试

/application/mysql/bin/mysqld_safe --defaults-file=/data/3307/my.cnf &

mysql -uroot -p123456 -h 127.0.0.1 -P8066

show variables like 'server_id';

datahost其他配置:

<dataHost name="localhost1" maxCon="1000" minCon="10" balance="1"  writeType="0" dbType="mysql"  dbDriver="native" switchType="1">

maxCon="1000":最大的并发连接数

minCon="10" :mycat在启动之后,会在后端节点上自动开启的连接线程

tempReadHostAvailable="1"

这个一主一从时(1个writehost,1个readhost时),可以开启这个参数,如果2个writehost,2个readhost时

<heartbeat>select user()</heartbeat>  监测心跳

-------------

1.12 例2:垂直拆分将world数据库下的city表进行拆分到world1

vim schema.xml

<?xml version="1.0"?> 

<!DOCTYPE mycat:schema SYSTEM "schema.dtd"> 

<mycat:schema xmlns:mycat="http://io.mycat/">

<schema name="TESTDB" checkSQLschema="false" sqlMaxLimit="100" dataNode="dn1">

</schema> 

<schema name="TESTDB1" checkSQLschema="false" sqlMaxLimit="100" dataNode="dn2">

</schema> 

       <dataNode name="dn1" dataHost="localhost1" database= "world" />

       <dataNode name="dn2" dataHost="localhost2" database= "world1" /> 

       <dataHost name="localhost1" maxCon="1000" minCon="10" balance="1"  writeType="0" dbType="mysql"  dbDriver="native" switchType="1">

              <heartbeat>select user()</heartbeat> 

       <writeHost host="db1" url="10.0.0.51:3307" user="root" password="123">

                     <readHost host="db2" url="10.0.0.52:3309" user="root" password="123" />

       </writeHost>

    <writeHost host="db3" url="10.0.0.52:3308" user="root" password="123">

                     <readHost host="db4" url="10.0.0.51:3310" user="root" password="123" />

       </writeHost>       

       </dataHost> 

    

       <dataHost name="localhost2" maxCon="1000" minCon="10" balance="1"  writeType="0" dbType="mysql"  dbDriver="native" switchType="1">

              <heartbeat>select user()</heartbeat> 

       <writeHost host="db1" url="10.0.0.51:3308" user="root" password="123">

                     <readHost host="db2" url="10.0.0.52:3310" user="root" password="123" />

       </writeHost>

    <writeHost host="db3" url="10.0.0.52:3307" user="root" password="123">

                     <readHost host="db4" url="10.0.0.51:3309" user="root" password="123" />

       </writeHost>       

       </dataHost> 

</mycat:schema>

vim server.xml

<property name="password">123456</property>

<property name="schemas">TESTDB,TESTDB1</property>

db01:

mysql -S  /data/3308/mysql.sock

grant all on *.* to root@'10.0.0.%' identified by '123';

备份恢复到新节点

mysqldump world city  -S  /data/3307/mysql.sock>/tmp/city.sql

mysql -S  /data/3308/mysql.sock

create database world1;

use world1

source /tmp/city.sql

/root/mycat/bin/mycat restart

mysql -uroot -p123456 -h 127.0.0.1  -P8066

---------------------

1.13 例子3:垂直分表

vim schema.xml

<?xml version="1.0"?> 

<!DOCTYPE mycat:schema SYSTEM "schema.dtd"> 

<mycat:schema xmlns:mycat="http://io.mycat/">

<schema name="TESTDB" checkSQLschema="false" sqlMaxLimit="100" dataNode="dn1">

       <table name="country" dataNode="dn1"/>

    <table name="countrylanguage" dataNode="dn1"/>

       <table name="city" dataNode="dn2"/>

</schema> 

       <dataNode name="dn1" dataHost="localhost1" database= "world" />

       <dataNode name="dn2" dataHost="localhost2" database= "world1" /> 

       <dataHost name="localhost1" maxCon="1000" minCon="10" balance="1"  writeType="0" dbType="mysql"  dbDriver="native" switchType="1">

              <heartbeat>select user()</heartbeat> 

       <writeHost host="db1" url="10.0.0.51:3307" user="root" password="123">

                     <readHost host="db2" url="10.0.0.52:3309" user="root" password="123" />

       </writeHost>

    <writeHost host="db3" url="10.0.0.52:3308" user="root" password="123">

                     <readHost host="db4" url="10.0.0.51:3310" user="root" password="123" />

       </writeHost>       

       </dataHost> 

    

       <dataHost name="localhost2" maxCon="1000" minCon="10" balance="1"  writeType="0" dbType="mysql"  dbDriver="native" switchType="1">

              <heartbeat>select user()</heartbeat> 

       <writeHost host="db1" url="10.0.0.51:3308" user="root" password="123">

                     <readHost host="db2" url="10.0.0.52:3310" user="root" password="123" />

       </writeHost>

    <writeHost host="db3" url="10.0.0.52:3307" user="root" password="123">

                     <readHost host="db4" url="10.0.0.51:3309" user="root" password="123" />

       </writeHost>       

       </dataHost> 

</mycat:schema>

vim server.xml

   <property name="schemas">TESTDB</property>

重启mycat测试

----------------------

1.14 分片

对一个"bigtable",比如说city表

(1)行数非常多,800w

(2)访问非常频繁

(1)范围分片

<?xml version="1.0"?> 

<!DOCTYPE mycat:schema SYSTEM "schema.dtd"> 

<mycat:schema xmlns:mycat="http://io.mycat/">

<schema name="TESTDB" checkSQLschema="false" sqlMaxLimit="100" dataNode="dn1">

       <table name="city" dataNode="dn1,dn2" rule="auto-sharding-long" />

</schema> 

       <dataNode name="dn1" dataHost="localhost1" database= "world" />

       <dataNode name="dn2" dataHost="localhost2" database= "world1" /> 

       <dataHost name="localhost1" maxCon="1000" minCon="10" balance="1"  writeType="0" dbType="mysql"  dbDriver="native" switchType="1">

              <heartbeat>select user()</heartbeat> 

       <writeHost host="db1" url="10.0.0.51:3307" user="root" password="123">

                     <readHost host="db2" url="10.0.0.52:3309" user="root" password="123" />

       </writeHost>

    <writeHost host="db3" url="10.0.0.52:3308" user="root" password="123">

                     <readHost host="db4" url="10.0.0.51:3310" user="root" password="123" />

       </writeHost>       

       </dataHost> 

    

       <dataHost name="localhost2" maxCon="1000" minCon="10" balance="1"  writeType="0" dbType="mysql"  dbDriver="native" switchType="1">

              <heartbeat>select user()</heartbeat> 

       <writeHost host="db1" url="10.0.0.51:3308" user="root" password="123">

                     <readHost host="db2" url="10.0.0.52:3310" user="root" password="123" />

       </writeHost>

    <writeHost host="db3" url="10.0.0.52:3307" user="root" password="123">

                     <readHost host="db4" url="10.0.0.51:3309" user="root" password="123" />

       </writeHost>       

       </dataHost> 

</mycat:schema>

vim rule.xml

<tableRule name="auto-sharding-long">

                <rule>

                        <columns>umeta_id</columns>

                        <algorithm>rang-long</algorithm>

                </rule>

vim  autopartition-long.txt

0-2000=0

2001-4079=1

1.15   Mycat全局表

使用场景:

如果你的业务中有些数据类似于数据字典,比如配置文件的配置,

常用业务的配置或者数据量不大很少变动的表,这些表往往不是特别大,

而且大部分的业务场景都会用到,那么这种表适合于Mycat全局表,无须对数据进行切分,

要在所有的分片上保存一份数据即可,Mycat 在Join操作中,业务表与全局表进行Join聚合会优先选择相同分片内的全局表join,

避免跨库Join,在进行数据插入操作时,mycat将把数据分发到全局表对应的所有分片执行,在进行数据读取时候将会随机获取一个节点读取数据。

<table name="t_area" primaryKey="id" type="global" dataNode="dn1,dn2" />

6.3  E-R分片

<table name="orders" dataNode="dn1,dn2" rule="mod-long">

       <childTable name="order_detail" joinKey="order_id" parentKey="order_id" />

</table>

取模分片

mod-long

枚举分片

sharding-by-intfile

<tableRule name="sharding-by-intfile">

<rule> <columns>user_id</columns>

<algorithm>hash-int</algorithm>

</rule>

</tableRule>

<function name="hash-int" class="org.opencloudb.route.function.PartitionByFileMap">

<property name="mapFile">partition-hash-int.txt</property>

<property name="type">0</property>

<property name="defaultNode">0</property>

</function>

partition-hash-int.txt 配置:

10000=0

10010=1

DEFAULT_NODE=1

columns 标识将要分片的表字段,algorithm 分片函数, 其中分片函数配置中,mapFile标识配置文件名称

猜你喜欢

转载自www.cnblogs.com/zdqc/p/9510265.html