現在、cephクラスター内に破損したosdディスクがあります。ディスクはRAID 0で構成されています。今回は、osd障害回復の実行方法を示します。
作業手順
- 故障したディスクを交換してください
- ハードディスクはRAID0を実行しているため、ハードディスクを交換した後、ディスクのRAID0をやり直す必要があります。
- 障害のあるosdハードディスクをcephクラスターから削除します。
- 新しいosdハードディスクをcephクラスターに追加します。
1.障害のあるディスクを交換します
このとき、ホストceph01のosd.2のosdステータスを確認します。osdプロセスを再起動しようとしても失敗します。
2.ハードディスクはRAID0を実行しているため、ハードディスクを交換した後、ディスクのRAID0をやり直す必要があります。
2.1。ホストを再起動し、RAID管理インターフェイスに入ります
#4を確認した後、RAIDステータスはFAILEDです
2.2。RAID RAID操作をやり直します。RAIDが通常に戻った後、システムに入る方法についてはここでは説明しません。
lsblkコマンドを使用してハードディスクを表示する
3.障害のあるosd.2ハードディスクをcephクラスターから削除します。
[root@ceph01 ~]# ceph osd out osd.2
osd.2 is already out.
[root@ceph01 ~]# ceph osd crush rm osd.2
removed item id 2 name 'osd.2' from crush map
[root@ceph01 ~]# ceph auth del osd.2
updated
[root@ceph01 ~]# ceph osd rm osd.2
#验证是否删除成功
[root@ceph01 ~]# ceph osd tree
2.新しいosdハードディスクをcephクラスターに追加します。
#进入ceph-deploy管理目录中
[root@ceph01 ceph_cluster]# cd /root/ceph_cluster
#添加时注意/dev/sd*位置符
[root@ceph01 ceph_cluster]# ceph-deploy osd create --data /dev/sdd ceph01
#验证是否添加成功