En la actualidad, hay un disco OSD dañado en el clúster ceph El disco está hecho de RAID 0. Esta vez mostraremos cómo realizar la recuperación de fallas OSD.
Procedimientos de operación
- Reemplazar el disco fallado
- Debido a que el disco duro está haciendo raid 0, debe rehacer el RAID 0 del disco después de reemplazar el disco duro.
- Retire el disco duro osd defectuoso del clúster ceph.
- Agregue un nuevo disco duro osd al clúster ceph.
1. Reemplace el disco defectuoso
En este momento, verifique el estado de osd del osd.2 en el host ceph01.Después de intentar reiniciar el proceso de osd, aún falla.
2. Debido a que el disco duro está haciendo RAID 0, debe rehacer el RAID 0 del disco después de reemplazar el disco duro.
2.1. Reinicie el host e ingrese a la interfaz de administración de RAID
Después de verificar # 4, el estado de RAID es FALLIDO
2.2 Rehacer la operación RAID RAID No voy a demostrar aquí cómo ingresar al sistema después de que el RAID vuelva a la normalidad.
Ver el disco duro a través del comando lsblk
3. Retire el disco duro osd.2 defectuoso del clúster ceph.
[root@ceph01 ~]# ceph osd out osd.2
osd.2 is already out.
[root@ceph01 ~]# ceph osd crush rm osd.2
removed item id 2 name 'osd.2' from crush map
[root@ceph01 ~]# ceph auth del osd.2
updated
[root@ceph01 ~]# ceph osd rm osd.2
#验证是否删除成功
[root@ceph01 ~]# ceph osd tree
2. Agregue un nuevo disco duro osd al clúster ceph.
#进入ceph-deploy管理目录中
[root@ceph01 ceph_cluster]# cd /root/ceph_cluster
#添加时注意/dev/sd*位置符
[root@ceph01 ceph_cluster]# ceph-deploy osd create --data /dev/sdd ceph01
#验证是否添加成功