Linuxの高可用性クラスタRHCSクラスタの構築と高可用性クラスタを実現

A.役割クラスタスイート

ライト:

  • 設定するために使用してクラスタを管理して、ポート8084で待機します。

リッチ:

  • ノードのそれぞれの後端部に取り付けられ、管理クラスタの各ノードは、ルーシーとリッチであり、ポート11111上のノード、リッチリスニングを介して通信します。

フェンス:

  • ホスト例外いるので、事故の原因は、最初の呼び出しに機会を準備フェンスデバイスは、バックアップサーバに情報フェンスに成功した後を受けて、バックアップマシンをフェンス操作が正常に実行され、異常なまたはネットワークから分離、再起動、リターン情報をホストする、引き継ぐようになったときサービスとリソースのホストなので、フェンスデバイスにより、異常ノードは、解放されたリソースを占有しますリソースおよびサービスは、常にノード上で実行されていることを保証するために、そして効果的に脳が発生したスプリットを防ぐこと。

II。シミュレーションRHCSクラスタを構築するには

ビルドに1。実験環境

  • 基本的な概念とワニスの実装ワニス:この実験の迅速なコンビニエンスバージョンのために使用さrhel6.5は、マスターディスクをカプセル化し、3台の仮想マシンとスナップショット、詳細な構成の確立がボーエンを参照してください。
ホスト(IP) サービス
SERVER1(172.25.254.1) カーリー、光、httpdの
SERVER2(172.25.254.2) リッチ、httpdの
foudation77(172.25.254.77) フェンス

ビルドに2.rhcs環境

SERVER1:

  • (1)configureは、環境構築時に使用するために必要なソフトウェアをインストールするためのyumソースを高度な
    ここに画像を挿入説明
    ファイルエディタを次のように読み取ります。
    ここに画像を挿入説明
    ここに画像を挿入説明
  • (2)ダウンロードRHCSグラフィカルなWebベースの管理ツール

リッチ:クラスタ管理ソフトウェアのグラフィカルインターフェイス
のluci:グラフィカルなインターフェイス
ここに画像を挿入説明

  • (3)インストールサービスのhttpd
    ここに画像を挿入説明

  • (4)LinuxのRHCSコントロールは、ユーザーのパスワードを設定するには、ユーザー・リッチ、リッチ必要性によって達成されます
    ここに画像を挿入説明

  • (5)は、スタートからの関連サービスとセットブートを開き、
    ここに画像を挿入説明
    ここに画像を挿入説明
    サーバー2:

  • (1)設定高度YUM源(同じSERVER1)
    ここに画像を挿入説明

  • (2)インストール・リッチ
    ここに画像を挿入説明

  • (3)設定リッチユーザーのパスワード
    ここに画像を挿入説明

  • (4)インストールサービスのhttpd
    ここに画像を挿入説明

  • (5)开启服务并设定开机自启动
    ここに画像を挿入説明
    3.集群节点server1和server2的添加

  • (1)访问luci图形化管理界面,并手动导入证书
    ここに画像を挿入説明
    ここに画像を挿入説明

  • (2)超级用户的登录
    ここに画像を挿入説明
    ここに画像を挿入説明

  • (3)将server1和server2集群
    ここに画像を挿入説明
    ここに画像を挿入説明
    ここに画像を挿入説明
    ここに画像を挿入説明
    点击create cluster,进入等待页面,此时的server1和server2会重启,然后在物理机上重新连接。
    注:如果没有设定luci和ricci开机自启动,则需要在等待过程中重启虚拟机之后,再次开起服务,才能完成server1和server2集群节点的添加。

  • (3)server1和server2上集群信息的查看

[root@server1 ~]# chkconfig --list ##查看开机会自启动的服务
[root@server1 ~]# cat /etc/cluster/cluster.conf ##发现该文件之中已有server1和server2的集群
[root@server1 ~]# clustat ##也会看见集群

ここに画像を挿入説明
ここに画像を挿入説明

三.FENCE的配置

1.物理机上配置fence

  • (1)安装fence(yum源[rhel 7.3]搭建好之后)

yum search fence #查看fence的安装包

ここに画像を挿入説明
ここに画像を挿入説明

  • (2)生成fence的加密文件
    因为本身配置的文件中没有fence的加密文件,所以要自己生成加密文件,然后再配置fence的配置文件
    ここに画像を挿入説明

  • (3)fence的配置文件
    ここに画像を挿入説明
    ここに画像を挿入説明

  • (4)将生成的密匙文件发送给节点server1和server2,保证俩个节点使用同一个密匙
    ここに画像を挿入説明

  • (5)开启fence服务
    ここに画像を挿入説明
    fence使用1229端口

2.fence设备的添加

  • (1)在浏览器luci界面添加fence设备所要管理的节点
    ここに画像を挿入説明
  • (2)选择多模式的fence
    ここに画像を挿入説明
  • (3)绑定集群节点(server1和server2)

a.server1:
ここに画像を挿入説明
ここに画像を挿入説明
ここに画像を挿入説明
ここに画像を挿入説明
ここに画像を挿入説明
b.server2同server1的操作相同
ここに画像を挿入説明
ここに画像を挿入説明
配置后显示如下:
ここに画像を挿入説明

  • (3)检测绑定是否成功
    ここに画像を挿入説明
    3.fence设备的测试
    在server2上:
    [root@server2 ~]# fence_node server1
    通过fence干掉节点server2,时server2断电重新启动则为成功

四.高可用服务配置(httpd)

  • 添加故障转移域
    ここに画像を挿入説明

  • 将server1和server2添加到故障转移域中,及当其中有一个出现故障时,服务落在优先级高的节点上。
    注:数字越小优先级越高
    ここに画像を挿入説明

  • 添加webfail故障转移中需要的资源
    ここに画像を挿入説明

  • 添加VIP及集群对外的IP
    ここに画像を挿入説明

  • 再次点击resource,点击add添加httpd服务启动时需要的脚本
    ここに画像を挿入説明

  • 向集群中添加服务组在该服务组中添加上一步所添加的资源

  • 创建一个资源组,服务中要用到的资源的集合
    ここに画像を挿入説明
    ここに画像を挿入説明

  • 服务组中添加资源,点击新建的服务组名apache下方会出现添加资源,开始添加上一步的资源
    ここに画像を挿入説明
    ここに画像を挿入説明
    ここに画像を挿入説明

  • 在server1和server2上安装httpd服务并且编辑内容方便检测

  • server1:
    ここに画像を挿入説明
    ここに画像を挿入説明

  • server2:
    ここに画像を挿入説明
    ここに画像を挿入説明

  • 测试

  • 刷新网页显示在server1上运行,因为server1的优先级高
    ここに画像を挿入説明

  • 在srever1上查看可以看到VIP(虚拟服务器IP)
    ここに画像を挿入説明

  • 在物理机上访问俩台节点
    ここに画像を挿入説明

  • 在物理机上访问VIP
    ここに画像を挿入説明
    因为服务运行在server1上,server1的优先级高

  • 测试高可用(HA)

  • 在server1上,手动拓掉服务器

输入echo c > /proc/sysrp-trigger 命令后显示如下:

ここに画像を挿入説明

  • 再次在物理机访问时显示server2服务器上的内容且VIP会自动漂到server2上
    ここに画像を挿入説明
    ここに画像を挿入説明
  • ディスカバリサービスが再びサーバー1 Server1のカットバックが再起動後に行われ、VIPが再び戻ってドリフトする
    ここに画像を挿入説明
    ここに画像を挿入説明
    ここに画像を挿入説明
    後でServer1でサービスバックにアクセスするには、物理マシン上で発見しました。
  • server1上のHTTPDをオフにすることで、サービスが自動的にSERVER2に行くでしょう
    ここに画像を挿入説明
公開された93元の記事 ウォンの賞賛0 ビュー1158

おすすめ

転載: blog.csdn.net/weixin_45029822/article/details/104468210
おすすめ