9. Resolver la recuperación de fallas del disco duro OSD de Ceph

En la actualidad, hay un disco OSD dañado en el clúster ceph El disco está hecho de RAID 0. Esta vez mostraremos cómo realizar la recuperación de fallas OSD.

Procedimientos de operación

  1. Reemplazar el disco fallado
  2. Debido a que el disco duro está haciendo raid 0, debe rehacer el RAID 0 del disco después de reemplazar el disco duro.
  3. Retire el disco duro osd defectuoso del clúster ceph.
  4. Agregue un nuevo disco duro osd al clúster ceph.

1. Reemplace el disco defectuoso

En este momento, verifique el estado de osd del osd.2 en el host ceph01.Después de intentar reiniciar el proceso de osd, aún falla.
Inserte la descripción de la imagen aquí
Inserte la descripción de la imagen aquí

2. Debido a que el disco duro está haciendo RAID 0, debe rehacer el RAID 0 del disco después de reemplazar el disco duro.

2.1. Reinicie el host e ingrese a la interfaz de administración de RAID

Después de verificar # 4, el estado de RAID es FALLIDO
Inserte la descripción de la imagen aquí

2.2 Rehacer la operación RAID RAID No voy a demostrar aquí cómo ingresar al sistema después de que el RAID vuelva a la normalidad.

Ver el disco duro a través del comando lsblk
Inserte la descripción de la imagen aquí

3. Retire el disco duro osd.2 defectuoso del clúster ceph.

[root@ceph01 ~]# ceph osd out osd.2
osd.2 is already out. 
[root@ceph01 ~]# ceph osd crush rm osd.2
removed item id 2 name 'osd.2' from crush map
[root@ceph01 ~]# ceph auth del osd.2
updated
[root@ceph01 ~]# ceph osd rm osd.2
#验证是否删除成功
[root@ceph01 ~]# ceph osd tree   

2. Agregue un nuevo disco duro osd al clúster ceph.

#进入ceph-deploy管理目录中
[root@ceph01 ceph_cluster]# cd /root/ceph_cluster
#添加时注意/dev/sd*位置符
[root@ceph01 ceph_cluster]# ceph-deploy osd create --data /dev/sdd ceph01
#验证是否添加成功

Inserte la descripción de la imagen aquí

Supongo que te gusta

Origin blog.csdn.net/weixin_43357497/article/details/113699841
Recomendado
Clasificación