1、設定を変更
[ルート@のノード2〜]#のvimのは/ etc / CEPH / CEPH-クラスタ/ ceph.conf [ グローバル] FSID = 4c137c64-9e09-410e-aee4- c04b0f46294e mon_initial_members =ノード2、ノード1、MASTER1 mon_host = 172.16.18.22,172.16.18.24 、172.16.18.16 auth_cluster_required = cephx auth_service_required = cephx auth_client_required = cephx OSDプールのデフォルトのサイズ= 3 パブリックネットワーク= 172.16。18.22 / 24 [月] プールは削除可能MON = 真
2、ファイルの同期
[ルート@のノード2のセファロ]#cpは/etc/ceph/ceph-cluster/ceph.confの/ etc / CEPH /
[ルート@のノード2のセファロ]#CEPH -deploy --overwrite-confに設定プッシュノード1 MASTER1
3、新しいモニター
ノード1 MASTER1を作成MON --overwrite-confのをCEPH-展開
4.チェック
[ルート@ node2のCEPH-クラスタ]#のセファロ-s
クラスタ6fd6ad33-621d-48c6-882d-0f364555a16b
健康HEALTH_ERR
64のPGSが300秒以上のために非アクティブに立ち往生している
64 PGSは非アクティブに立ち往生
64のPGSは不潔立ち往生していない
何のOSDの
monmapのE3:3つのモンスでの{MASTER1 = 172.16.18.16:6789/0、ノード1 = 172.16.18.24:6789/0、NODE2 = 172.16.18.22:6789/0}
選挙エポック8、定足数0,1,2 MASTER1、ノード2、ノード1
osdmap E1:0 OSD:0 0、アップ
sortbitwiseフラグは、require_jewel_osds
pgmap V2:64のPGS、1つのプール、0バイトのデータ、0オブジェクト
使用0 KBのデータを、0 KB / 0 kBのは役に立つ
作成64
[ルート@ NODE2 CEPHクラスタ]位