CEPHの小さなクラスタを構築します

    CEPH学びます

    DFS(分散ファイルシステム)ストレージシステムの分散ファイル・システムは、必ずしも直接ローカルノードに接続されていない、物理的なストレージリソース管理を意味するが、ノードは、コンピュータネットワークを介して接続され、カテゴリの数は、現在のセファロは広く分布使用されサーバモード - ストレージシステムは、典型的なクライアントです。

    1.cephは、例えば、高いスケーラビリティ(無制限の拡張ノード)、高可用性(バックアップコピーを提供する)、高性能(クラッシュアルゴリズム、データ配信平衡力、平行高い)などの多くの機能を有しています。

    2.cephは、ブロック記憶ファイル・システム・ストレージ、オブジェクトストアを提供してもよいです。

    3.基本的なコンポーネントは、クラスタ、RGWオブジェクト・ストレージ・ゲートウェイ、MDSストレージファイルシステムのメタデータ、クライアントのクライアントを監視するためのアセンブリを監視し、OSD記憶装置を有しています。

    より深いレベルでのセファロコンテンツは、公式のヘルプドキュメントをチェックアウトします。http://docs.ceph.org/start/intro

   ここで行うには、小さなクラスタCEPHの深さの研究を構築します。

    一般的な考え方:環境構築 - > [クラスタ設定] - > [検証を

    トポロジ:

  

まず、環境を設定

    アイデア:(1)4台の仮想マシンの作成は、クライアントが他の三つは、ストレージクラスタをしますか。 

             (2)CEPH光学ディスクをマウント、ホスト名、IPアドレス、ソースYUMを設定します。

             パスワードなしでホスト4接続SSHの(3)の構成は、同期動作を実現します。

             (4)NTP時刻同期を配置し、  

             (5)仮想マシンディスクのクラスタストレージの後ろに追加されます。

    具体的な手順:

    //アイデア:最初のノード1を動作させるホスト上で、その後、他のホストにコンテンツを同期します。

    1)マウントポイントの/ var / FTP / CEPHを作成し、実機ceph10.iso光ディスクをマウント。

    2)図4は、パスワードのホストであって、ユニットを接続することなく配置され、SSHです。  

      #1にssh-keygenは-f /root/.ssh/id_rsa -N ''

      #for I 10 11 12 13 //他のホストに同期させます

       行う

           SCP-コピー-IP 192.168.4。$ iの

      完了

   3))のIPアドレスを解決し、ホスト4(DNSサーバなし追加セットアップに同期したマシンを使用

     #vimの/ etc / hosts

      192.168.4.10クライアント

      192.168.4.11ノード1

      192.168.4.12ノード2

      192.168.4.13ノード3

     I 10 11 12 13 //は他のホストに同期させるための

     行う

        SCPは、/ etc / 192.168.4をホスト$ I:の/ etc /

   4)、yumのソースを設定し、実際の工作機械セファロマウントポイントを呼び出します

     #vim /etc/yum.repos.d/ceph.repo

      [月]

      名前=月

      BASEURL = FTP://192.168.4.254/ceph/MON

      gpgcheck = 0

      [OSD]

      名前= OSK

      BASEURL = FTP://192.168.4.254/ceph/OSD

      gpgcheck = 0

      [ツール]

      名前=ツール

      BASEURL = FTP://192.168.4.254/ceph/Tools

     gpgcheck = 0

    別のホストへのI 10 11 12 13 //同期ソースのためのYUM

    行う

       SCP /etc/yum.repos.d/ceph.repo 192.168.4 $ I:。/etc/yum.repos.d/

    完了

 5)実機でのNTP一貫性のすべてのホストを設定します

   #vim /etc/chrony.conf

     サーバー192.168.4.254 IBURST

     I 10 11 12 13 //は他のホストに同期させるための

     行う

          192.168.4 /etc/chrony.conf SCP $ I:の/ etc /

     完了

 6)実際のマシン上で実行されているのvirt-managerが、仮想コールアップシステム管理者は、仮想ホストごとに3つのディスクのVDB、VDC、VDDを追加します。

第二に、クラスタセットアップ

  アイデア:(1)インストールツールのCEPH-デプロイ

            (2)クラスタCEPHを作成します

            (3)ログ、およびディスク・パーティションを準備します

            (4)OSDストレージスペースを作成

            (5)表示CEPH状況と検証

 具体的な手順:

  (1)インストールツール、およびディレクトリを作成します

     yumをCEPH-展開をインストール-y

     mkdir CEPHクラスタ

  (2)クラスタCEPHを作成します

      コンフィギュレーション・ファイルceph.confでホストに。精細モニター

         ノード1のCEPH-クラスタ]#のCEPH-展開新しいノード1ノード2ノード3

      b。すべてのノードにCEPH関連のパッケージをインストールします。

        ノード1 CEPH-クラスタ] #for Iにおけるノード1ノード2ノード3

        行う

            SSH 192.168.4。$ i "はyumのCEPH-月CEPH-OSDのCEPH-MDS CEPH-radosgwをインストール-y"

        完了

      C。月を開始し、すべてのノードのサービスの初期化を監視

        ノード1 CEPH-クラスタ]#のCEPH-デプロイ作成し、初期MON

 (3)OSDストレージを作成します

     。VDBは、キャッシュサーバのジャーナルディスクキャッシュとしてVDB1とvdb2に分割しました

        ノード1 CEPH-クラスタ]ノード1ノード2ノード3で私のために#

        行う

          SSH 192.168.4。$ i "は別れの/ dev / VDB mklabel GPT"

          SSH 192.168.4。$ i "は別れの/ dev / VDBのmkpartをプライマリ1 50%"

          SSH 192.168.4。$ i "は別れの/ dev / VDB mkpartを主要50%100%"

        完了

     B。VDB1とvdb2後に既定のアクセス許可をパーティション、あなたがアクセス権を変更する必要があり、それらを読み書きするCEPHソフトウェアをさせてください。

       アクセス許可は、以下にNODE1例えば、変更されなければならない4つのホストに注意してください。

       変更するには、ノード1 CEPH-クラスタ]#chownをceph.cephは/ dev / VDB1 //一時的に許可

       変更するには、ノード1 CEPH-クラスタ]#chownをceph.cephは/ dev / vdb2 //一時的に許可

       永続的に設定されたアクセス権:

       ノード1 dephクラスタ]#のVimの/etc/udev/rules.d/70-vdb.rules

       ENV {DEVNAME} == "は/ dev / VDB1"、OWNER = "CEPH"、GROUP = "CEPH"

       ENV {DEVNAME} == "は/ dev / vdb2" OWNER = "CEPH"、GROUP = "CEPH"

       #for Iにおけるノード1ノード2ノード3 //同期するすべてのホストに

         行う

             SCPは、192.168.4を/etc/udev/rules.d/70-vdb.rules $ I:。/etc/udev/rules.d/に

        完了

      C。ディスクのデータを初期化し、それが空になります。

         #for Iにおけるノード1ノード2ノード3

           行う

              ディスクが$私を攻撃するCEPH-展開:VDC $ I:VDD

           完了

       D。OSDは、ストレージ・スペースを作成します

          #for Iにおけるノード1ノード2ノード3

           行う

              CEPH-展開OSDは$作成I:VDC:は/ dev / VDB1 $ I:VDD:は/ dev / vdb2 

             // OSDストレージデバイスを作成し、VDCストレージスペースを提供し、VDB1ログバッファを提供し、VDDストレージスペースを提供し、vdb2ログキャッシュを提供します。

           完了

第三に、確認してください

      ノード1〜]#のセファロ-s //ビューのステータス、

       それが失敗した場合、//、CEPHサービスを再起動してください:#systemctl再起動CEPH \ *サーバのCEPHの\ *ターゲット..

ただ、完成。

おすすめ

転載: www.cnblogs.com/liusingbon/p/10980625.html