9. Cephosdハードディスク障害回復を解決します

現在、cephクラスター内に破損したosdディスクがあります。ディスクはRAID 0で構成されています。今回は、osd障害回復の実行方法を示します。

作業手順

  1. 故障したディスクを交換してください
  2. ハードディスクはRAID0を実行しているため、ハードディスクを交換した後、ディスクのRAID0をやり直す必要があります。
  3. 障害のあるosdハードディスクをcephクラスターから削除します。
  4. 新しいosdハードディスクをcephクラスターに追加します。

1.障害のあるディスクを交換します

このとき、ホストceph01のosd.2のosdステータスを確認します。osdプロセスを再起動しようとしても失敗します。
ここに画像の説明を挿入
ここに画像の説明を挿入

2.ハードディスクはRAID0を実行しているため、ハードディスクを交換した後、ディスクのRAID0をやり直す必要があります。

2.1。ホストを再起動し、RAID管理インターフェイスに入ります

#4を確認した後、RAIDステータスはFAILEDです
ここに画像の説明を挿入

2.2。RAID RAID操作をやり直します。RAIDが通常に戻った後、システムに入る方法についてはここでは説明しません。

lsblkコマンドを使用してハードディスクを表示する
ここに画像の説明を挿入

3.障害のあるosd.2ハードディスクをcephクラスターから削除します。

[root@ceph01 ~]# ceph osd out osd.2
osd.2 is already out. 
[root@ceph01 ~]# ceph osd crush rm osd.2
removed item id 2 name 'osd.2' from crush map
[root@ceph01 ~]# ceph auth del osd.2
updated
[root@ceph01 ~]# ceph osd rm osd.2
#验证是否删除成功
[root@ceph01 ~]# ceph osd tree   

2.新しいosdハードディスクをcephクラスターに追加します。

#进入ceph-deploy管理目录中
[root@ceph01 ceph_cluster]# cd /root/ceph_cluster
#添加时注意/dev/sd*位置符
[root@ceph01 ceph_cluster]# ceph-deploy osd create --data /dev/sdd ceph01
#验证是否添加成功

ここに画像の説明を挿入

おすすめ

転載: blog.csdn.net/weixin_43357497/article/details/113699841