展開する
-
- 1. 実験手順
- 2.LVS-DRの導入
- 3. NFS ストレージ サーバーを展開します (NFS 共有ストレージ IP アドレス: 192.168.174.15)
- 4 番目に、Nginx + Tomcat の動的分離と静的分離の導入
- 5. keeplived を構成します (プライマリ (ha01) とスタンバイ (ha02) DR サーバーの両方を構成する必要があります)
- 6. MySQL クラスター MHA 高可用性のデプロイ
-
- 1. MySQL をインストールします (slave01、slave02、master 構成を同時に実行)
- 2. MySQL ユーザーを作成する
- 3. MySQL 構成ファイルを変更する
- 4. MySQL インストール ディレクトリと設定ファイルの所有者とグループを変更します。
- 5. パス環境変数を設定します。
- 6. データベースの初期化
- 7. MySQLD システムサービスを追加する
- 8. MySQL ログインパスワードを変更する
- 9. リモートログインを許可する
- 10. 1 つのマスターと 2 つのスレーブによる MySQL クラスター構成
- 11.**Master01、Slave01、および Slave02 ノードの Mysql マスター構成ファイル /etc/my.cnf を変更します**
- マスター マスター データベースはデータを挿入し、同期されているかどうかをテストします
- 12. テスト、同期は成功しました。
- 7.MHAの導入
-
- 1. 3 台のマシン (master01、slave01、slave02) の構成ファイルを変更します。
- 2.**Master01、Slave01、および Slave02 はすべて MHA 依存環境にインストールされます。最初に epel ソースをインストールします**
- 3. **Master01、Slave01、Slave02 のすべてのサーバーは最初にノード コンポーネントをインストールする必要があります**
- 4. MHA マネージャー ノードにマネージャー コンポーネントをインストールします。
- 5. Master01、Slave01、Slave02のすべてのサーバーでパスワードレス認証を設定します。
- 6.master01で設定する
- 八、故障テスト
1. 実験手順
1. フレームワーク導入前の準備作業
サーバーの種類 | コンポーネントをデプロイする | IPアドレス |
---|---|---|
DR1スケジューリングサーバーマスター(ha01) | キープアライブ+LVS-DR | 192.168.174.17 |
DR2スケジューリングサーバースタンバイ(ha02) | キープアライブ+LVS-DR | 192.168.174.12 |
web1ノードサーバー(slave01) | Nginx+Tomcat+MySQL备+MHAマネージャー+MHAノード | 192.168.174.18 |
Web2 ノードサーバー (slave02) | Nginx+Tomcat +MySQL 备+MHA node | 192.168.174.19 |
NFSストレージサーバー(master01) | MySQL マスター+NFS+MHA ノード | 192.168.174.15 |
VIP | 仮想IP | 192.168.174.100 |
2. 環境を準備する(ファイアウォールを閉じる、ホスト名を変更する)
systemctl stop firewalld.service
setenforce 0
hostnamectl set-hostname ha01
hostnamectl set-hostname ha02
hostnamectl set-hostname slave01
hostnamectl set-hostname slave02
hostnamectl set-hostname master01
2.LVS-DRの導入
1. ロードスケジューラha01とha02を同時に設定します(192.168.174.17、192.168.174.12)。
modprobe ip_vs
cat /proc/net/ip_vs
## 加载ip_vs模块,并查看版本信息
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
yum install -y ipvsadm
2. 両方のデバイスで仮想 IP アドレスを構成します (VIP: 192.168.174.100)。
cd /etc/sysconfig/network-scripts/
cp ifcfg-ens33 ifcfg-ens33:0
vim ifcfg-ens33:0
DEVICE=ens33:0
ONBOOT=yes
IPADDR=192.168.174.100
GATEWAY=192.168.174.2
NETMASK=255.255.255.255
ifup ifcfg-ens33:0
ifconfig
ens33: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.174.17 netmask 255.255.255.0 broadcast 192.168.174.255
inet6 fe80::1c8b:9053:c28:220c prefixlen 64 scopeid 0x20<link>
ether 00:0c:29:ae:23:9b txqueuelen 1000 (Ethernet)
RX packets 705692 bytes 1016839095 (969.7 MiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 331444 bytes 20137290 (19.2 MiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
ens33:0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.174.100 netmask 255.255.255.255 broadcast 192.168.174.100
ether 00:0c:29:ae:23:9b txqueuelen 1000 (Ethernet)
lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10<host>
loop txqueuelen 1 (Local Loopback)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 0 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
virbr0: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500
inet 192.168.122.1 netmask 255.255.255.0 broadcast 192.168.122.255
ether 52:54:00:ff:2a:5b txqueuelen 1000 (Ethernet)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 0 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
route add -host 192.168.174.100 dev ens33:0
vim /etc/rc.local
/usr/sbin/route add -host 192.168.174.100 dev ens33:0
3. VIP 内の MAC アドレスの更新を防ぎ、競合を避けるために ARP カーネル応答パラメータを設定します。
[root@ha01 network-scripts]# vim /etc/sysctl.conf
net.ipv4.ip_forward = 0
#proc响应关闭重定向功能
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
sysctl -p
## 加载配置文件生效
net.ipv4.ip_forward = 0
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
4. 負荷分散分散戦略を構成する
ipvsadm-save > /etc/sysconfig/ipvsadm
## 保持策略
systemctl start ipvsadm.service
## 开启ipvsadm服务
ipvsadm -C
## 情况策略,添加虚拟ip地址,指定负载均衡算法给两台web节点服务器
ipvsadm -A -t 192.168.174.100:80 -s rr
ipvsadm -a -t 192.168.174.100:80 -r 192.168.174.18:80 -g
ipvsadm -a -t 192.168.174.100:80 -r 192.168.174.19:80 -g
ipvsadm
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP ha02:http rr
-> 192.168.174.18:http Route 1 0 0
-> 192.168.174.19:http Route 1 0 0
5. Web ノード サーバーを構成します (2 つのスレーブが 192.168.174.18 と 192.168.174.19 を同時に展開します)。
(1) 仮想IPアドレス(VIP:192.168.174.100)の設定
cd /etc/sysconfig/network-scripts/
cp ifcfg-ens33 ifcfg-lo:0
vim ifcfg-lo:0
DEVICE=lo:0
ONBOOT=yes
IPADDR=192.168.174.100
NETMASK=255.255.255.255
systemctl restart network
ifup ifcfg-lo:0
route add -host 192.168.174.100 dev lo:0
vim /etc/rc.local
## 配置永久添加路由
route add -host 192.168.174.100 dev lo:0
(2) ARP カーネル応答パラメータを構成して、VIP 内の MAC アドレスの更新を防ぎ、競合を回避します。
vim /etc/sysctl.conf
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
sysctl -p
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
3. NFS ストレージ サーバーを展開します (NFS 共有ストレージ IP アドレス: 192.168.174.15)
1.NFSをインストールする
rpm -q rpcbind nfs-utils
## 检查是否有安装nfs
rpcbind-0.2.0-42.el7.x86_64
nfs-utils-1.3.0-0.48.el7.x86_64
systemctl start nfs
systemctl start rpcbind
##开启服务
systemctl enable nfs
## 设置开机自启
Created symlink from /etc/systemd/system/multi-user.target.wants/nfs-server.service to /usr/lib/systemd/system/nfs-server.service.
systemctl enable rpcbind
mkdir /opt/web1 /opt/web2
## 创建web目录
echo '<h1>This is node web1</h1>' > /opt/web1/index.html
echo '<h1>This is node web2</h1>' > /opt/web2/index.html
## 添加网页内容
vim /etc/exports
/opt/web1 192.168.174.0/24(ro,sync)
/opt/web2 192.168.174.0/24(ro,sync)
exportfs -rv #发布共享
exporting 192.168.174.0/24:/opt/web2
exporting 192.168.174.0/24:/opt/web1
2. ノードサーバーは Web サービス (Nginx) をインストールし、共有ディレクトリ (slave01、slave02) をマウントします。
cd /opt/
ls
nginx-1.12.2.tar.gz rh
systemctl disable firewalld.service
Removed symlink /etc/systemd/system/multi-user.target.wants/firewalld.service.
Removed symlink /etc/systemd/system/dbus-org.fedoraproject.FirewallD1.service.
systemctl status firewalld.service
(1) nginxをインストールする
yum -y install pcre-devel zlib-devel gcc gcc-c++ make
useradd -M -s /sbin/nologin nginx
tar -zxvf nginx-1.12.2.tar.gz
cd nginx-1.12.2/
./configure \
--prefix=/usr/local/nginx \
--user=nginx \
--group=nginx \
--with-http_stub_status_module
make -j2 && make install
cd /usr/local/nginx/sbin/
ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/ ## 创建软链接
nginx -t
nginx: the configuration file /usr/local/nginx/conf/nginx.conf syntax is ok
nginx: configuration file /usr/local/nginx/conf/nginx.conf test is successful
netstat -natp | grep :80
nginx
## 开启nginx服务
2. ノードサーバーは共有ディレクトリをマウントします (slave1 と smile2 はそれぞれ /opt/web1 /opt/web2 をマウントします)。
cd ~
showmount -e 192.168.174.15
Export list for 192.168.174.15:
/opt/web2 192.168.174.0/24
/opt/web1 192.168.174.0/24
mount.nfs 192.168.174.15:/opt/web1 /usr/local/nginx/html/ #slave01
mount.nfs 192.168.174.15:/opt/web2 /usr/local/nginx/html/ #slave02
cd /usr/local/nginx/html/
ls
index.html
cat index.html
<h1>This is node web1</h1>
3. テスト (仮想 IP192.168.174.100 でアクセス):
4 番目に、Nginx + Tomcat の動的分離と静的分離の導入
1. Tomcat をバックエンドサーバーとしてインストールします
cd /opt
[root@slave01 opt]# cd ~
[root@slave01 ~]# vim tomcat.sh
#!/bin/bash
#安装部署tomcat
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
#安装JDK
cd /opt
rpm -ivh jdk-8u371-linux-x64.rpm &> /dev/null
java -version
#设置JDK环境变量
cat > /etc/profile.d/java.sh <<EOF
export JAVA_HOME=/usr/java/jdk1.8.0_371-amd64
export CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar
export PATH=$JAVA_HOME/bin:$PATH
EOF
source /etc/profile.d/java.sh
if [ $? -eq 0 ];then
echo -e "\033[34;1m JDK安装完成! \033[0m"
fi
java -version
#安装启动Tomcat
cd /opt
tar zxvf apache-tomcat-8.5.16.tar.gz &> /dev/null
mv apache-tomcat-8.5.16 /usr/local/tomcat
##启动tomcat
/usr/local/tomcat/bin/startup.sh
if [ $? -eq 0 ];then
echo -e "\033[34;1m tomcat安装完成! \033[0m"
fi
chmod +x tomcat.sh
./tomcat.sh
2. 動的および静的分離 Tomcat サーバー構成 (192.168.174.18、192.168.174.19)
(1)192.168.174.18
mkdir /usr/local/tomcat/webapps/test
## 创建目录
cd /usr/local/tomcat/webapps/
ls
docs examples host-manager manager ROOT test
cd test/
vim /usr/local/tomcat/webapps/test/index.jsp
<%@ page language="java" import="java.util.*" pageEncoding="UTF-8" %>
<html>
<head>
<title>tomcat1</title>
</head>
<body>
<% out.println("This is tomcat1 server");%>
<div>动态页面1</div><br/>
</body>
</html>
ls
index.jsp
(2)192.168.174.19
mkdir /usr/local/tomcat/webapps/test
## 创建目录
cd /usr/local/tomcat/webapps/
ls
docs examples host-manager manager ROOT test
cd test/
vim /usr/local/tomcat/webapps/test/index.jsp
<%@ page language="java" import="java.util.*" pageEncoding="UTF-8" %>
<html>
<head>
<title>tomcat2</title>
</head>
<body>
<% out.println("This is tomcat2 server");%>
<div>动态页面2</div><br/>
</body>
</html>
[root@slave02 test]# ls
index.jsp
2. Tomcat インスタンスのメイン構成により、以前のホスト構成が削除され、新しいホスト構成が追加されます。
cd /usr/local/tomcat/conf/
ls
catalina.policy context.xml jaspic-providers.xsd server.xml tomcat-users.xsd
catalina.properties jaspic-providers.xml logging.properties tomcat-users.xml web.xml
cp server.xml{,.bak}
## 备份配置文件
vim server.xml
删除148-164行
<Host name="localhost" appBase="webapps"
unpackWARs="true" autoDeploy="true" xmlValidation="false" xmlNamespaceAware="false">
<Context docBase="/usr/local/tomcat/webapps/test" path="" reloadable="true" />
</Host>
/usr/local/tomcat/bin/shutdown.sh
/usr/local/tomcat/bin/startup.sh
netstat -natp | grep 8080
3. Nginxサーバー(192.168.174.18、192.168.174.19)の構成は同じです
cd /usr/local/nginx/conf/
ls
fastcgi.conf koi-utf nginx.conf uwsgi_params
fastcgi.conf.default koi-win nginx.conf.default uwsgi_params.default
fastcgi_params mime.types scgi_params win-utf
fastcgi_params.default mime.types.default scgi_params.default
cp nginx.conf{,.bak}
vim nginx.conf
##复制备份修改配置文件
upstream tomcat_server {
server 192.168.174.18:8080 weight=1;
server 192.168.174.19:8080 weight=1;
}
server_name www.web1.com;
charset utf-8;
location ~ .*.jsp$ {
proxy_pass http://tomcat_server;
proxy_set_header HOST $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
location ~ .*\.(gif|jpg|jpeg|png|bmp|swf|css)$ {
root /usr/local/nginx/html;
expires 10d;
}
cd /usr/local/nginx/sbin/
nginx -s reload
4. 仮想 IP 192.168.174.100/index.jsp でのアクセス テスト:
5. keeplived を構成します (プライマリ (ha01) とスタンバイ (ha02) DR サーバーの両方を構成する必要があります)
1. プライマリ DR サーバー ha01:
yum install ipvsadm keepalived -y
cd /etc/keepalived/
ls
keepalived.conf
cp keepalived.conf{,.bak}
vim keepalived.conf
## 按图修改配置文件
virtual_ipaddress {
192.168.174.100
}
}
virtual_server 192.168.174.100 80 {
delay_loop 6
lb_algo rr
lb_kind DR
persistence_timeout 50
protocol TCP
real_server 192.168.174.17 80 {
weight 1
TCP_CHECK {
connect_port 80
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
real_server 192.168.174.12 80 {
weight 1
TCP_CHECK {
connect_port 80
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
systemctl start keepalived.service
ip addr show dev ens33
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:ae:23:9b brd ff:ff:ff:ff:ff:ff
inet 192.168.174.17/24 brd 192.168.174.255 scope global ens33
valid_lft forever preferred_lft forever
inet 192.168.174.100/32 brd 192.168.174.100 scope global ens33:0
valid_lft forever preferred_lft forever
inet6 fe80::2775:742b:bf24:136d/64 scope link
valid_lft forever preferred_lft forever
inet6 fe80::b65d:94e9:7e6a:6879/64 scope link tentative dadfailed
valid_lft forever preferred_lft forever
inet6 fe80::1c8b:9053:c28:220c/64 scope link tentative dadfailed
valid_lft forever preferred_lft forever
scp keepalived.conf 192.168.174.12:/etc/keepalived/
2. スタンバイ DR サーバー ha02: 192.168.174.12
yum install ipvsadm keepalived -y
cd /etc/keepalived/
systemctl start keepalived.service
vim keepalived.conf
systemctl start keepalived.service
3. カーネルの proc 応答パラメーターを調整し、Linux カーネルのリダイレクト パラメーターの応答をオフにします。
(1) プライマリ DR は LVS-DR モードで応答パラメータを調整しており、スタンバイ DR サーバーを変更するだけで済みます。
vim /etc/sysctl.conf
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
sysctl -p
(2) keepalive がアクティブとスタンバイを正常に切り替えられるかどうかをテストします。
- プライマリ DR サーバー ha01、プライマリ DR サーバー ha01 の keepaliverd サービスを終了します。
systemctl stop keepalived.service
ip a
在ha02上看
ip a
- ブラウザで動的分離ページと静的分離ページをテストする
6. MySQL クラスター MHA 高可用性のデプロイ
1. MySQL をインストールします (slave01、slave02、master 構成を同時に実行)
[root@master01 opt]# ls
boost_1_59_0.tar.gz mysql-5.7.17.tar.gz rh web1 web2
[root@master01 opt]# yum -y install gcc gcc-c++ ncurses ncurses-devel bison cmake
## 安装环境依赖包
[root@master01 opt]# tar zxvf mysql-5.7.17.tar.gz
[root@master01 opt]# tar zxvf boost_1_59_0.tar.gz
[root@master01 opt]# mv boost_1_59_0 /usr/local/boost
[root@master01 opt]# mkdir /usr/local/mysql
[root@master01 opt]# cd mysql-5.7.17/
cmake \
## 先输入cmake \ ,在复制下面文字
-DCMAKE_INSTALL_PREFIX=/usr/local/mysql \
-DMYSQL_UNIX_ADDR=/usr/local/mysql/mysql.sock \
-DSYSCONFDIR=/etc \
-DSYSTEMD_PID_DIR=/usr/local/mysql \
-DDEFAULT_CHARSET=utf8 \
-DDEFAULT_COLLATION=utf8_general_ci \
-DWITH_EXTRA_CHARSETS=all \
-DWITH_INNOBASE_STORAGE_ENGINE=1 \
-DWITH_ARCHIVE_STORAGE_ENGINE=1 \
-DWITH_BLACKHOLE_STORAGE_ENGINE=1 \
-DWITH_PERFSCHEMA_STORAGE_ENGINE=1 \
-DMYSQL_DATADIR=/usr/local/mysql/data \
-DWITH_BOOST=/usr/local/boost \
-DWITH_SYSTEMD=1
[root@master01 opt]# ls
boost_1_59_0.tar.gz mysql-5.7.17.tar.gz rh web1 web2
[root@master01 opt]# yum -y install gcc gcc-c++ ncurses ncurses-devel bison cmake
## 安装环境依赖包
[root@master01 opt]# tar zxvf mysql-5.7.17.tar.gz
[root@master01 opt]# tar zxvf boost_1_59_0.tar.gz
[root@master01 opt]# mv boost_1_59_0 /usr/local/boost
[root@master01 opt]# mkdir /usr/local/mysql
[root@master01 opt]# cd mysql-5.7.17/
[root@master01 mysql-5.7.17]# cmake \
## 先输入cmake \ ,在复制下面文字
-DCMAKE_INSTALL_PREFIX=/usr/local/mysql \
-DMYSQL_UNIX_ADDR=/usr/local/mysql/mysql.sock \
-DSYSCONFDIR=/etc \
-DSYSTEMD_PID_DIR=/usr/local/mysql \
-DDEFAULT_CHARSET=utf8 \
-DDEFAULT_COLLATION=utf8_general_ci \
-DWITH_EXTRA_CHARSETS=all \
-DWITH_INNOBASE_STORAGE_ENGINE=1 \
-DWITH_ARCHIVE_STORAGE_ENGINE=1 \
-DWITH_BLACKHOLE_STORAGE_ENGINE=1 \
-DWITH_PERFSCHEMA_STORAGE_ENGINE=1 \
-DMYSQL_DATADIR=/usr/local/mysql/data \
-DWITH_BOOST=/usr/local/boost \
-DWITH_SYSTEMD=1
[root@master01 mysql-5.7.17]# make -j2 && make install
2. MySQL ユーザーを作成する
cd /usr/local/
useradd -M -s /sbin/nologin mysql
3. MySQL 構成ファイルを変更する
[root@master01 local]# vim /etc/my.cnf
##将原有配置文件数据全部清空,复制下面所有配置信息到my.cnf中 50+dd全部清空
[client]
port = 3306
default-character-set=utf8
socket=/usr/local/mysql/mysql.sock
[mysql]
port = 3306
default-character-set=utf8
socket = /usr/local/mysql/mysql.sock
auto-rehash
[mysqld]
user = mysql
basedir=/usr/local/mysql
datadir=/usr/local/mysql/data
port = 3306
character-set-server=utf8
pid-file = /usr/local/mysql/mysqld.pid
socket=/usr/local/mysql/mysql.sock
bind-address = 0.0.0.0
skip-name-resolve
max_connections=2048
default-storage-engine=INNODB
max_allowed_packet=16M
server-id = 1
sql_mode=NO_ENGINE_SUBSTITUTION,STRICT_TRANS_TABLES,NO_AUTO_CREATE_USER,NO_AUTO_VALUE_ON_ZERO,NO_ZERO_IN_DATE,NO_ZERO_DATE,ERROR_FOR_DIVISION_BY_ZERO,PIPES_AS_CONCAT,ANSI_QUOTES
4. MySQL インストール ディレクトリと設定ファイルの所有者とグループを変更します。
[root@master01 local]# chown -R mysql:mysql /usr/local/mysql/
[root@master01 local]# chown mysql:mysql /etc/my.cnf
5. パス環境変数を設定します。
[root@master01 local]# echo 'export PATH=/usr/local/mysql/bin:/usr/local/mysql/lib:$PATH' >> /etc/profile
[root@master01 local]# source /etc/profile
[root@master01 local]# echo $PATH
/usr/local/mysql/bin:/usr/local/mysql/lib:/usr/local/bin:/usr/local/sbin:/usr/bin:/usr/sbin:/bin:/sbin:/root/bin
6. データベースの初期化
[root@master01 local]# cd /usr/local/mysql/bin/
[root@master01 bin]# ./mysqld \
##输入./mysqld \ 复制下面代码写入
--initialize-insecure \
--user=mysql-maseter01 \
--basedir=/usr/local/mysql \
--datadir=/usr/local/mysql/data
7. MySQLD システムサービスを追加する
[root@slave01 bin]# cp /usr/local/mysql/usr/lib/systemd/system/mysqld.service /usr/lib/systemd/system/
[root@slave01 bin]# systemctl daemon-reload
[root@slave01 bin]# systemctl start mysqld.service
[root@slave01 bin]# systemctl enable mysqld.service
## 重新加载并开启服务,设置开机自启动
Created symlink from /etc/systemd/system/multi-user.target.wants/mysqld.service to /usr/lib/systemd/system/mysqld.service.
[root@slave01 bin]# netstat -natp |grep 3306
tcp 0 0 0.0.0.0:3306 0.0.0.0:* LISTEN 90475/mysqld
8. MySQL ログインパスワードを変更する
[root@slave01 bin]# mysqladmin -u root -p password "abc123"
## 按回车
Enter password:
mysqladmin: [Warning] Using a password on the command line interface can be insecure.
Warning: Since password will be sent to server in plain text, use ssl connection to ensure password safety.
9. リモートログインを許可する
[root@slave01 bin]# mysql -u root -p
Enter password: 输入abc123
mysql> show databases;
+--------------------+
| Database |
+--------------------+
| information_schema |
| mydatabase |
| mysql |
| performance_schema |
| sys |
+--------------------+
5 rows in set (0.01 sec)
mysql> grant all privileges on *.* to 'root'@'%' identified by 'abc123';
## 允许root用户登录,并给权限
Query OK, 0 rows affected, 1 warning (0.00 sec)
mysql> quit
Bye
10. 1 つのマスターと 2 つのスレーブによる MySQL クラスター構成
- すべてのサーバーの /etc/hosts 構成ファイルに、IP およびホスト名の解決を追加し、ping テストを実行します。
[root@slave01 ~]# vim /etc/hosts
20.0.0.100 slave01
20.0.0.200 slave02
20.0.0.230 maseter01
ping のテスト:
11. Master01、Slave01、および Slave02 ノードの Mysql マスター構成ファイル /etc/my.cnf を変更します。
(1) Master01 マスターデータベース
[root@master01 bin]# vim /etc/my.cnf
## 添加
log_bin = master-bin
log-slave-updates = true
[root@master01 bin]# systemctl restart mysqld.service
## 重启数据库
(2)slave01
[root@slave01 ~]# vim /etc/my.cnf
server-id = 2
log_bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
systemctl restart mysqld.service
(3)奴隷02
[root@slave02 bin]# vim /etc/my.cnf
server-id = 3
log_bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
systemctl restart mysqld.service
(4) Master01、Slave01、Slave02 ノードに 2 つのソフト リンクを作成します。
Master01 マスターデータベース
ln -s /usr/local/mysql/bin/{mysql,mysqlbinlog} /usr/sbin/
ll /usr/sbin/mysql*
lrwxrwxrwx. 1 root root 26 8月 11 16:34 /usr/sbin/mysql -> /usr/local/mysql/bin/mysql
lrwxrwxrwx. 1 root root 32 8月 11 16:34 /usr/sbin/mysqlbinlog -> /usr/local/mysql/bin/mysqlbinlog
スレーブ01スタンバイデータベース
[root@slave01 ~]# ln -s /usr/local/mysql/bin/{mysql,mysqlbinlog} /usr/sbin/
[root@slave01 ~]# ll /usr/sbin/mysql*
lrwxrwxrwx. 1 root root 26 8月 11 16:35 /usr/sbin/mysql -> /usr/local/mysql/bin/mysql
lrwxrwxrwx. 1 root root 32 8月 11 16:35 /usr/sbin/mysqlbinlog -> /usr/local/mysql/bin/mysqlbinlog
スレーブ02
ln -s /usr/local/mysql/bin/{mysql,mysqlbinlog} /usr/sbin/
ll /usr/sbin/mysql*
lrwxrwxrwx. 1 root root 26 8月 11 16:36 /usr/sbin/mysql -> /usr/local/mysql/bin/mysql
lrwxrwxrwx. 1 root root 32 8月 11 16:36 /usr/sbin/mysqlbinlog -> /usr/local/mysql/bin/mysqlbinlog
すべてのデータベース ノードは mysql 認証を実行し (1 つのマスターと 2 つのスレーブ)、3 つの設定は同じです
mysql -uroot -pabc123
grant replication slave on *.* to 'myslave'@'192.168.174.%' identified by '12345';
## 从数据库同步使用
grant all privileges on *.* to 'mha'@'192.168.174.%' identified by 'manager';
## 防止从库通过主机名连接不上主库
grant all privileges on *.* to 'mha'@'maseter01' identified by 'manager';
grant all privileges on *.* to 'mha'@'slave01' identified by 'manager';
grant all privileges on *.* to 'mha'@'slave02' identified by 'manager';
flush privileges;
## 刷新权限
**Master01 マスター データベース ビューのバイナリと同期ポイント**
show master status;
+-------------------+----------+--------------+------------------+-------------------+
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |
+-------------------+----------+--------------+------------------+-------------------+
| master-bin.000001 | 1752 | | | |
+-------------------+----------+--------------+------------------+-------------------+
1 row in set (0.00 sec)
Slave01 サーバーと Slave02 サーバーは同期操作を実行し、データ同期結果を確認します。注: 同期するには、上部のマスター ステータスの数が下部の master_log_pos の書き込み数と一致している必要があります。
change master to master_host='192.168.174.15',master_user='myslave',master_password='12345',master_log_file='master-bin.000001',master_log_pos=1752;
change master to master_host='192.168.174.15',master_user='myslave',master_password='12345',master_log_file='master-bin.000001',master_log_pos=1752;
Query OK, 0 rows affected, 2 warnings (0.01 sec)
mysql> start slave;
Query OK, 0 rows affected (0.01 sec)
mysql> show slave status\G;
*************************** 1. row ***************************
Slave_IO_State: Waiting for master to send event
Master_Host: 192.168.174.15
Master_User: myslave
Master_Port: 3306
Connect_Retry: 60
Master_Log_File: master-bin.000001
Read_Master_Log_Pos: 1752
Relay_Log_File: relay-log-bin.000002
Relay_Log_Pos: 321
Relay_Master_Log_File: master-bin.000001
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
Replicate_Do_DB:
スレーブ 01 とスレーブ 02 の 2 つのスレーブ ライブラリは読み取り専用モードに設定する必要があります
mysql> set global read_only=1;
Query OK, 0 rows affected (0.00 sec)
マスター マスター データベースはデータを挿入し、同期されているかどうかをテストします
マスター上にテーブルを作成し、データを挿入します。
create table student(id int,name char(5),age int);
Query OK, 0 rows affected (0.01 sec)
mysql> insert into student values(1,'abc',22);
Query OK, 1 row affected (0.04 sec)
mysql> select * from student;
+------+------+------+
| id | name | age |
+------+------+------+
| 1 | abc | 22 |
+------+------+------+
1 row in set (0.00 sec)
12. テスト、同期は成功しました。
7.MHAの導入
1. 3 台のマシン (master01、slave01、slave02) の構成ファイルを変更します。
[root@slave01 mha4mysql-manager-0.57]# vim /etc/my.cnf
## 把utf-8的段落#注释掉
2. Master01、Slave01、Slave02の全サーバにMHA依存環境をインストールします まず、epelソースをインストールします
[root@master01 bin]# yum install epel-release --nogpgcheck -y
[root@master01 bin]# yum install -y perl-DBD-MySQL \
## 输入之后回车复制下面代码下载
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN
3.ノード コンポーネントは、Master01、Slave01、および Slave02 のすべてのサーバーにインストールする必要があります
tar zxvf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57
perl Makefile.PL
make && make install
4. MHA マネージャー ノードにマネージャー コンポーネントをインストールします。
cd /opt
tar zxvf mha4mysql-manager-0.57.tar.gz
cd mha4mysql-manager-0.57
perl Makefile.PL
make && make install
5. Master01、Slave01、Slave02のすべてのサーバーでパスワードレス認証を設定します。
master01からデータベースノードslave01とslave02に設定されたパスワードレス認証に従って、テンプレートはそれぞれ3セットの例として設定されています。マネージャノード(slave01ノード)は3台のSQLマシンをsshする必要があり、残りのslave01とslave02はsshする必要があることに注意してください。 master01 は他の 2 台のマシンに SSH 接続するだけで済みます
(1)マスター01
ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.174.15
ssh-copy-id 192.168.174.18
ssh-copy-id 192.168.174.19
(2)slave01
ssh-keygen -t rsa
ssh-copy-id 192.168.174.15
ssh-copy-id 192.168.174.19
(3)slave01
ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.174.15
ssh-copy-id 192.168.174.19
6.master01で設定する
cp -rp /opt/mha4mysql-manager-0.57/samples/scripts/ /usr/local/bin/
ll /usr/local/bin/
总用量 84
-r-xr-xr-x. 1 root root 16381 8月 11 17:07 apply_diff_relay_logs
-r-xr-xr-x. 1 root root 4807 8月 11 17:07 filter_mysqlbinlog
-r-xr-xr-x. 1 root root 1995 8月 11 17:11 masterha_check_repl
-r-xr-xr-x. 1 root root 1779 8月 11 17:11 masterha_check_ssh
-r-xr-xr-x. 1 root root 1865 8月 11 17:11 masterha_check_status
-r-xr-xr-x. 1 root root 3201 8月 11 17:11 masterha_conf_host
-r-xr-xr-x. 1 root root 2517 8月 11 17:11 masterha_manager
-r-xr-xr-x. 1 root root 2165 8月 11 17:11 masterha_master_monitor
-r-xr-xr-x. 1 root root 2373 8月 11 17:11 masterha_master_switch
-r-xr-xr-x. 1 root root 5171 8月 11 17:11 masterha_secondary_check
-r-xr-xr-x. 1 root root 1739 8月 11 17:11 masterha_stop
-r-xr-xr-x. 1 root root 8261 8月 11 17:07 purge_relay_logs
-r-xr-xr-x. 1 root root 7525 8月 11 17:07 save_binary_logs
drwxr-xr-x. 2 mysql mysql 103 5月 31 2015 scripts
(1) 上記の自動切り替え時の VIP 管理スクリプトを /usr/local/bin ディレクトリにコピーし、master_ip_failover スクリプトを使用して VIP とフェイルオーバーを管理します
[root@master01 mha4mysql-manager-0.57]# vim /usr/local/bin/master_ip_failover
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
#############################添加内容部分#########################################
my $vip = '20.0.0.10'; #指定vip的地址
my $brdc = '20.0.0.255'; #指定vip的广播地址
my $ifdev = 'ens33'; #指定vip绑定的网卡
my $key = '1'; #指定vip绑定的虚拟网卡序列号
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip"; #代表此变量值为ifconfig ens33:1 20.0.0.10
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down"; #代表此变量值为ifconfig ens33:1 20.0.0.10 down
my $exit_code = 0; #指定退出状态码为0
#my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
##################################################################################
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);
exit &main();
sub main {
print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
## A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
(2) MHA ソフトウェア ディレクトリを作成して設定ファイルをコピーし、app1.cnf 設定ファイルを使用して mysql ノード サーバーを管理します
mkdir /etc/masterha
cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha
vim /etc/masterha/app1.cnf
#删除原有内容,直接复制并修改节点服务器的IP地址
[server default]
manager_log=/var/log/masterha/app1/manager.log
manager_workdir=/var/log/masterha/app1
master_binlog_dir=/usr/local/mysql/data
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
password=manager
ping_interval=1
remote_workdir=/tmp
repl_password=12345
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.174.18 -s 192.168.174.19
shutdown_script=""
ssh_user=root
user=mha
[server1]
hostname=192.168.174.15
port=3306
[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.174.18
port=3306
[server3]
hostname=192.168.174.19
port=3306
(3) 最初の構成では、マスターサーバー上の仮想 IP を手動で開く必要があります。
/sbin/ifconfig ens33:1 192.168.174.0/24
ifconfig
(4) マネージャノードでsshパスワードレス認証をテストし、正常であれば最終的に正常に出力されます。
masterha_check_ssh -conf=/etc/masterha/app1.cnf
Fri Aug 11 17:29:04 2023 - [warning] Global configuration file /etc/masterha_default.cnf not found. Skipping.
Fri Aug 11 17:29:04 2023 - [info] Reading application default configuration from /etc/masterha/app1.cnf..
Fri Aug 11 17:29:04 2023 - [info] Reading server configuration from /etc/masterha/app1.cnf..
Fri Aug 11 17:29:04 2023 - [info] Starting SSH connection tests..
Fri Aug 11 17:29:05 2023 - [debug]
Fri Aug 11 17:29:04 2023 - [debug] Connecting via SSH from [email protected](192.168.174.15:22) to [email protected](192.168.174.18:22)..
Fri Aug 11 17:29:05 2023 - [debug] ok.
Fri Aug 11 17:29:05 2023 - [debug] Connecting via SSH from [email protected](192.168.174.15:22) to [email protected](192.168.174.19:22)..
Fri Aug 11 17:29:05 2023 - [debug] ok.
Fri Aug 11 17:29:06 2023 - [debug]
Fri Aug 11 17:29:04 2023 - [debug] Connecting via SSH from [email protected](192.168.174.18:22) to [email protected](192.168.174.15:22)..
Fri Aug 11 17:29:05 2023 - [debug] ok.
Fri Aug 11 17:29:05 2023 - [debug] Connecting via SSH from [email protected](192.168.174.18:22) to [email protected](192.168.174.19:22)..
Fri Aug 11 17:29:06 2023 - [debug] ok.
Fri Aug 11 17:29:06 2023 - [debug]
Fri Aug 11 17:29:05 2023 - [debug] Connecting via SSH from [email protected](192.168.174.19:22) to [email protected](192.168.174.15:22)..
Fri Aug 11 17:29:06 2023 - [debug] ok.
Fri Aug 11 17:29:06 2023 - [debug] Connecting via SSH from [email protected](192.168.174.19:22) to [email protected](192.168.174.18:22)..
Fri Aug 11 17:29:06 2023 - [debug] ok.
Fri Aug 11 17:29:06 2023 - [info] All SSH connection tests passed successfully.
(5) マネージャー(slave01)ノードでMHAを起動し、MHAのステータスとログを確認します。
[root@slave01 mha4mysql-manager-0.57]# cd /usr/local/bin/
[root@slave01 bin]# ls
apply_diff_relay_logs masterha_check_status masterha_master_switch purge_relay_logs
filter_mysqlbinlog masterha_conf_host masterha_secondary_check save_binary_logs
masterha_check_repl masterha_manager masterha_stop scripts
masterha_check_ssh masterha_master_monitor master_ip_failover
[root@slave01 bin]# chmod 777 master_ip_failover
[root@slave01 bin]# ls
apply_diff_relay_logs masterha_check_status masterha_master_switch purge_relay_logs
filter_mysqlbinlog masterha_conf_host masterha_secondary_check save_binary_logs
masterha_check_repl masterha_manager masterha_stop scripts
masterha_check_ssh masterha_master_monitor master_ip_failover
[root@slave01 bin]# masterha_check_repl -conf=/etc/masterha/app1.cnf
(6) マネージャー(slave01)ノードでMHAを起動し、MHAのステータスとログを確認します。
[root@master01 bin]# nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
[1] 66541
[root@master01 bin]# masterha_check_status --conf=/etc/masterha/app1.cnf
app1 (pid:66541) is running(0:PING_OK), master:192.168.174.15
[root@master01 bin]# cat /var/log/masterha/app1/manager.log | grep "current master"
Fri Aug 11 17:33:43 2023 - [info] Checking SSH publickey authentication settings on the current master..
192.168.174.15(192.168.174.15:3306) (current master)
八、故障テスト
1. Master01サーバー上のmysqlサービスを停止します。
systemctl stop mysqld.service
ifconfig
2.マネージャー サーバー (slave01) 上のログ レコードを監視および観察すると、切り替えは成功しました。
cat /var/log/masterha/app1/manager.log
3.slave01サーバーを確認します。この時点では、VIP は新しいマスターに移行し、スタンバイ データベースが有効になっています。
tail -f /var/log/masterha/app1/manager.log