LNP&Mariadbデータベース分離|Webサーバークラスタ

LNP&Mariadbデータベース分離|Webサーバークラスタ


序文の記事: https://blog.csdn.net/shengweiit/article/details/135160979

ウェブサイトアーキテクチャの進化

LNMP のスタンドアロン バージョン

ユーザー数が少なく、シンプルかつ低コストで
あるが、単一障害点がある場合に使用されます。
ここに画像の説明を挿入します

スタンドアロン データベース サーバー

独立したデータベース サーバーは、Web サイトの静的ファイル、コード ファイル、その他のデータをデータベースから分離するアーキテクチャです。ユーザー数が増加すると、1 台のマシンの処理能力は制限されます。データベースの追加、削除、変更には大規模なサーバーが必要です。メモリ リソースの量。この 2 つを分離すると、サーバーへの負荷が軽減されます。
ここに画像の説明を挿入します

Webサーバークラスタとセッションメンテナンス

Web 負荷分散クラスターは、Nginx および Haproxy プロキシ サーバーを通じて実装することも、LVS スケジューラーを使用して実装することもできます。Web クラスタを導入した後、セッションをどのように維持するかを検討する必要がありますが、送信元 IP に基づいて維持する、プロキシ サーバーによる Cookie 情報の書き換え、共有ファイル システムにセッションを保存する、セッションを使用するなど、さまざまな方法があります。セッションを共有するためのデータベースなど。
ここに画像の説明を挿入します

Web サイトのコンテンツは動的ページと静的ページに分けることができます。静的ページにはデータ ファイルが必要ですが、動的ページには CPU 解析コードが必要であり、多くの CPU リソースを消費します。したがって、静的ページと動的ページは 2 つのサーバー セットに分けることができます。ページ スクリプト コードで構成され、Web ベースのアプリケーションであるため、このサーバーのグループはアプリケーション サーバーとも呼ばれます。
ここに画像の説明を挿入します

LNP はデータベースから分離されています

ここに画像の説明を挿入します
まず、ファイアウォールとSELinuxをオフにします

[root@database ~]# firewall-cmd --set-default-zone=trusted
[root@database ~]# setenforce  0
[root@database ~]# sed -i  '/SELINUX/s/enforcing/permissive/'  /etc/selinux/config

1. 独立したサーバーを準備し、データベース ソフトウェア パッケージをインストールします。

[root@database ~]# yum -y install mariadb mariadb-server mariadb-devel
[root@database ~]# systemctl start mariadb
[root@database ~]# systemctl enable mariadb

ここに画像の説明を挿入します

2. 以前の LNMP Web サイトのデータベースを新しいデータベース サーバーに移行します。

192.168.2.11 ホストにログインしてデータベースをバックアップし、それを新しいサーバーにコピーし、古いデータベース サービスを閉じます。

#备份数据库到文件(备份的文件名和扩展名任意)
[root@centos7 ~]# mysqldump wordpress > wordpress.bak
[root@centos7 ~]# scp wordpress.bak 192.168.2.21:/root/ # 拷贝文件到远程主机
[root@centos7 ~]# systemctl stop mariadb
[root@centos7 ~]# systemctl disable mariadb

192.168.2.21 ホストにログインして空のデータベースを作成し、バックアップ ファイルを使用してデータベースを復元します。

[root@database ~]# mysql
MariaDB [(none)]> create database wordpress character set utf8mb4;
#创建数据库wordpress,该数据库支持中文
MariaDB [(none)]> exit
#使用备份文件导入数据到wordpress数据库
[root@database ~]# mysql wordpress < wordpress.bak        

そして 192.168.2.21 でアカウントを作成し、アクセスを許可します

[root@database ~]# mysql
MariaDB [(none)]> grant all on wordpress.* to wordpress@'%' identified by 'wordpress';
#语法格式:grant 权限 on 数据库名.表名  to 用户名@客户端主机 identified by 密码
#创建用户并授权,用户名为wordpress,该用户对wordpress数据库下的所有表有所有权限
#wordpress用户的密码是wordpress,授权该用户可以从localhost主机登录数据库服务器
#all代表所有权限(wordpress用户可以对wordpress数据库中所有表有所有权限)
#wordpress.*代表wordpress数据库中的所有表
MariaDB [(none)]> flush privileges;
#刷新权限
MariaDB [(none)]> exit

注: MySQL と MariaDB では、% はすべてを表します。ここでは、任意のホストがデータベースへの接続を許可されます。
検証:接続できれば使用可能
ここに画像の説明を挿入します

3. WordPress Web サイト構成ファイルを変更し、新しいデータベース サーバーを呼び出します。

Wordpress は、最初の初期化操作中に構成ファイル wp-config.php を自動的に生成します。192.168.2.11 にログインして、新しいデータベース サービスを呼び出すようにファイルを変更します。

[root@centos7 ~]# vim /usr/local/nginx/html/wp-config.php
修改前内容如下:
define('DB_HOST', '192.168.2.11');
修改后内容如下:
define('DB_HOST', '192.168.2.21');

Webサーバークラスタ

HAProxy を使用して Web サーバー クラスターを展開し、次の目標を達成します。

  • 3 つの Web サーバーを導入する
  • Web サイトのデータを移行し、NFS を使用してデータを共有する
  • HAProxy プロキシ サーバーを導入して負荷分散を実現する
  • DNS ドメイン名解決サーバーを展開する
    ここに画像の説明を挿入します
    ここに画像の説明を挿入します

1. Web2 サーバーと Web3 サーバーを構成する

LNP パッケージをインストールする

[root@web2 ~]# yum -y install gcc pcre-devel openssl-devel 
[root@web2 lnmp_soft]# tar -xf nginx-1.12.2.tar.gz
[root@web2 lnmp_soft]# cd nginx-1.12.2/
[root@web2 nginx-1.12.2]# ./configure \
--with-http_ssl_module \
--with-http_stub_status_module
[root@web2 nginx-1.12.2]# make && make install
[root@web2 ~]# yum -y install php php-fpm php-mysql mariadb-devel

[root@web3 ~]# yum -y install gcc pcre-devel openssl-devel
[root@web3 lnmp_soft]# tar -xf nginx-1.12.2.tar.gz
[root@web3 lnmp_soft]# cd nginx-1.12.2/
[root@web3 nginx-1.12.2]# ./configure \
--with-http_ssl_module \
--with-http_stub_status_module
[root@web3 nginx-1.12.2]# make && make install
[root@web3 ~]# yum -y install php php-fpm php-mysql mariadb-devel

nginx 設定を変更して動的と静的分離を実現します (web2 および web3 操作)

web2 は、デフォルトのホームページの Index.php を変更し、動的と静的を分ける 2 つの場所を構成します。
web3 は、デフォルトのホームページの Index.php を変更し、動的と静的を分ける 2 つの場所を構成します。

[root@web2 ~]# vim /usr/local/nginx/conf/nginx.conf
location / {
    
    
            root   html;
            index  index.php index.html index.htm;
        }


location ~ \.php$ {
    
    
            root            html;
            fastcgi_pass   127.0.0.1:9000;
            fastcgi_index  index.php;
            include         fastcgi.conf;
        }

web3の修正

[root@web3 ~]# vim /usr/local/nginx/conf/nginx.conf
location / {
    
    
            root   html;
            index  index.php index.html index.htm;
        }
location ~ \.php$ {
    
    
            root            html;
            fastcgi_pass   127.0.0.1:9000;
            fastcgi_index  index.php;
            include         fastcgi.conf;
        }

ここに画像の説明を挿入します
電源投入時の自動起動を設定する

[root@web2 ~]# echo "/usr/local/nginx/sbin/nginx" >> /etc/rc.local
[root@web2 ~]# chmod +x /etc/rc.local
[root@web2 ~]# /usr/local/nginx/sbin/nginx
[root@web2 ~]# systemctl start  php-fpm                   #启动php-fpm服务
[root@web2 ~]# systemctl enable php-fpm                   #设置服务开启自启

[root@web3 ~]# echo "/usr/local/nginx/sbin/nginx" >> /etc/rc.local
[root@web3 ~]# chmod +x /etc/rc.local
[root@web3 ~]# /usr/local/nginx/sbin/nginx
[root@web3 ~]# systemctl start  php-fpm                   #启动php-fpm服务
[root@web3 ~]# systemctl enable php-fpm                #设置服务开机自启

ソース コードからインストールされたソフトウェアは、デフォルトでは systemd で管理できません。ソース コードからインストールされたソフトウェアを管理するために systemd を使用する必要がある場合は、サービスのサービス ファイルを手動で記述する必要があります (他のサービスのテンプレート ファイルを参照して、書き込み)。以下は、nginx サービスの最終的に編集されたテンプレートです。
サービス ファイルの保存パスは /usr/lib/systemd/system/ ディレクトリです。

[root@centos7 ~]# vim /usr/lib/systemd/system/nginx.service
[Unit]
Description=The Nginx HTTP Server
#描述信息
After=network.target remote-fs.target nss-lookup.target
#指定启动nginx之前需要其他的其他服务,如network.target等
[Service]
Type=forking
#Type为服务的类型,仅启动一个主进程的服务为simple,需要启动若干子进程的服务为forking
ExecStart=/usr/local/nginx/sbin/nginx
#设置执行systemctl start nginx后需要启动的具体命令.
ExecReload=/usr/local/nginx/sbin/nginx -s reload
#设置执行systemctl reload nginx后需要执行的具体命令.
ExecStop=/bin/kill -s QUIT ${MAINPID}
#设置执行systemctl stop nginx后需要执行的具体命令.
[Install]
WantedBy=multi-user.target

2. NFS を展開し、Web サイトのデータを NFS 共有サーバーに移行します

NFS共有サーバーの導入

[root@nfs ~]# yum install nfs-utils
[root@nfs ~]# mkdir /web_share
[root@nfs ~]# vim /etc/exports
/web_share  192.168.2.0/24(rw,no_root_squash)

# NFS使用的是随机端口,每次启动NFS都需要将自己的随机端口注册到rpcbind服务,这样客户端访问NFS时先到rpcbind查询端口信息,得到端口信息后再访问NFS服务。
[root@nfs ~]# systemctl restart rpcbind
[root@nfs ~]# systemctl enable rpcbind

[root@nfs ~]# systemctl restart nfs
[root@nfs ~]# systemctl enable nfs

古い W​​eb サイトのデータを NFS 共有サーバーに移行する

web1 (192.168.2.11) の wordpress コードを NFS 共有にコピーします。

[root@web1 ~]# cd /usr/local/nginx/
[root@web1 nginx]# tar -czpf html.tar.gz html/  # -p代表打包时保留文件的权限 
[root@web1 nginx]# scp html.tar.gz 192.168.2.31:/web_share/

nfs サーバーにログインし、圧縮パッケージを解凍します。

[root@nfs ~]# cd /web_share/
[root@nfs web_share]# tar -xf html.tar.gz

すべての Web サーバーが NFS 共有データにアクセスしてマウントします。サービスをオフにしてから、アンマウントしてからマウントします。

[root@web1 ~]# rm -rf /usr/local/nginx/html/*
[root@web1 ~]# yum -y install nfs-utils
[root@web1 ~]# echo "192.168.2.31:/web_share/html /usr/local/nginx/html/ nfs defaults 0 0" >> /etc/fstab
[root@web1 ~]# mount -a

[root@web2 ~]# yum -y install nfs-utils
[root@web2 ~]# echo "192.168.2.31:/web_share/html /usr/local/nginx/html/ nfs defaults 0 0" >> /etc/fstab
[root@web2 ~]# mount -a

[root@web3 ~]# yum -y install nfs-utils
[root@web3 ~]# echo "192.168.2.31:/web_share/html /usr/local/nginx/html/ nfs defaults 0 0" >> /etc/fstab
[root@web3 ~]# mount -a

実装されているか確認する

showmount -e 192.168.2.31 # 查看是否有共享
df -h 
或者
mount | grep "192.168.2.31"

追加のテスト:
NFS ホストの共有ディレクトリ /web_share/html にファイル new.html を書き込みます (ファイルの内容はオプションです)。このファイルは他の 3 つの Web ホストで使用できます。

3. HAProxy プロキシ サーバーの展開

haproxy ソフトウェアを使用して 3 つの Web サーバーを呼び出す

HAProxy インストール ソフトウェアをデプロイし、構成ファイルを手動で変更し、次の内容を追加します。

[root@proxy ~]# yum -y install haproxy 
[root@proxy ~]# vim /etc/haproxy/haproxy.cfg
listen wordpress *:80        #监听80端口
  balance roundrobin         #轮询算法
  server web1 192.168.2.11:80 check inter 2000 rise 2 fall 3
  server web2 192.168.2.12:80 check inter 2000 rise 2 fall 3
  server web3 192.168.2.13:80 check inter 2000 rise 2 fall 3

ここに画像の説明を挿入します
サービス開始

[root@proxy ~]# systemctl start haproxy
[root@proxy ~]# systemctl enable haproxy

ここに画像の説明を挿入します
クライアント 192.168.4.10 の haproxy ホストに接続して、Web サイト サービスにアクセスします。

curl http://192.168.4.5/love.html

ロード バランシングが実装されているかどうか? 3 つのステーションのログ ファイルを確認してください。
ここに画像の説明を挿入します

4. DNS関連ソフトウェアの導入(192.168.4.5運用)

DNS関連のソフトウェアをインストールする

[root@proxy ~]# yum install -y bind bind-chroot

構成ファイルを変更してゾーンを追加する

[root@proxy ~]# vim /etc/named.conf
options {
    
    
        listen-on port 53 {
    
     any; };           #服务监听的地址与端口
        directory       "/var/named";         #数据文件路径
        allow-query     {
    
     any; };             #允许任何主机访问DNS服务
... ...
};


zone "lab.com" IN {
    
                            #定义正向区域
        type master;
        file "lab.com.zone";
};

#include "/etc/named.rfc1912.zones";        #注释掉改行
#include "/etc/named.root.key";              #注释掉改行

[root@proxy ~]# named-checkconf /etc/named.conf            #检查语法

前方解析レコードファイルを変更する

ファイルのアクセス許可を保持するように注意してください

[root@proxy named]# cp -p /var/named/named.localhost /var/named/lab.com.zone
[root@proxy named]# vim /var/named/lab.com.zone
$TTL 1D
@       IN SOA  @ rname.invalid. (
                                        0       ; serial
                                        1D      ; refresh
                                        1H      ; retry
                                        1W      ; expire
                                        3H )    ; minimum
@        NS     dns.lab.com.
dns     A       192.168.4.5
www     A       192.168.4.5

# 启动服务
[root@proxy named]# systemctl start named
[root@proxy named]# systemctl enable named

ここに画像の説明を挿入します
次のコマンドを使用して、構成ファイルが正しく書き込まれているかどうかを確認できます

[root@proxy ~]# named-checkconf /etc/named.conf            #检查语法

クライアントがDNSを変更する

クライアントが Linux ホストの場合、クライアントは DNS 解決ファイルを変更します

[root@room9pc01 data]# cat /etc/resolv.conf
# Generated by NetworkManager
search tedu.cn 
nameserver 192.168.4.5 # DNS服务器地址

NFS 共有ディレクトリの権限は no_root_squash です (この権限は運用環境では追加されません)。
クライアントは、NFS サーバーのシステム管理者 root として共有リソースにアクセスしました。

おすすめ

転載: blog.csdn.net/shengweiit/article/details/135168233
おすすめ