Ordenación de comandos comunes de Ceph (clúster)

Iniciar y detener el proceso de cefalorraquídeo

systemctl reiniciar | detener | iniciar ceph-mon @ host

systemctl reiniciar | detener | iniciar ceph-osd @ id

[root @ ecos75r018-meijia-31-161 ~] # systemctl restart ceph-mon @ ecos75r018-meijia-31-161 [root @ ecos75r018-meijia-31-161 ~] # systemctl status ceph-mon @ ecos75r018-meijia-31 -161 ● [email protected] - Demonio de monitor de clúster Ceph Cargado: cargado (/usr/lib/systemd/system/[email protected]; habilitado; preajuste del proveedor: deshabilitado) Activo: activo (en ejecución) desde lun 2020-12-14 14:49:37 CST; Hace 14s PID principal: 369889 (ceph-mon) CGroup: /system.slice/system-ceph\x2dmon.slice/[email protected] └─369889 / usr / bin / ceph-mon -f --cluster ceph --id ecos75r018-meijia-31-161 --setuser ceph --setgroup cephDec 14 14:49:37 ecos75r018-meijia-31-161 systemd [1]: Se inició el demonio del monitor de clúster Ceph. 14:49:37 ecos75r018-meijia-31-161 systemd [1]: Iniciando el demonio del monitor de clúster Ceph ...


Verificar el estado de salud del clúster

ceph salud

[root @ ecos75r018-meijia-31-161 ~] # ceph healthHEALTH_OK


Verifique la información del estado del clúster

ceph -s

[root@ecos75r018-meijia-31-161 ~]# ceph -s  cluster:    id:     f60e6370-14ff-44cc-b99c-70b17df8549c    health: HEALTH_OK
 services:    mon: 1 daemons, quorum ecos75r018-meijia-31-161 (age 7m)    mgr: ecos75r018-meijia-31-161(active, since 4d)    mds: cephfs_mj:1 {0=ecos75r018-meijia-31-161=up:active}    osd: 3 osds: 3 up (since 4d), 3 in (since 2M)
 task status:    scrub status:        mds.ecos75r018-meijia-31-161: idle
 data:    pools:   4 pools, 240 pgs    objects: 51.56k objects, 199 GiB    usage:   597 GiB used, 2.4 TiB / 3.0 TiB avail    pgs:     240 active+clean


Observe el estado en tiempo real del clúster.

ceph -w

[root@ecos75r018-meijia-31-161 ~]# ceph -w  cluster:    id:     f60e6370-14ff-44cc-b99c-70b17df8549c    health: HEALTH_OK
 services:    mon: 1 daemons, quorum ecos75r018-meijia-31-161 (age 9m)    mgr: ecos75r018-meijia-31-161(active, since 4d)    mds: cephfs_mj:1 {0=ecos75r018-meijia-31-161=up:active}    osd: 3 osds: 3 up (since 4d), 3 in (since 2M)
 task status:    scrub status:        mds.ecos75r018-meijia-31-161: idle
 data:    pools:   4 pools, 240 pgs    objects: 51.56k objects, 199 GiB    usage:   597 GiB used, 2.4 TiB / 3.0 TiB avail    pgs:     240 active+clean


Observe los detalles del estado del clúster

detalle de salud ceph


Ver espacio de almacenamiento cefalométrico

ceph df

[root@ecos75r018-meijia-31-161 ~]# ceph dfRAW STORAGE:    CLASS     SIZE        AVAIL       USED        RAW USED     %RAW USED     hdd       3.0 TiB     2.4 TiB     594 GiB      597 GiB         19.43     TOTAL     3.0 TiB     2.4 TiB     594 GiB      597 GiB         19.43 
POOLS:    POOL                ID     STORED      OBJECTS     USED        %USED     MAX AVAIL    rbd_pool             3     197 GiB      51.54k     594 GiB     23.48       645 GiB    ceph_pool            4         0 B           0         0 B         0       645 GiB    cephfs_data          5         0 B           0         0 B         0       645 GiB    cephfs_metadata      6     8.3 KiB          22     1.5 MiB         0       645 GiB

La salida contiene dos dimensiones, el uso de la dimensión global (ALMACENAMIENTO SIN PROCESAR) y el uso de la dimensión del grupo de almacenamiento (PISCINAS)


Limpia los datos y desinstala el paquete.

ceph-deploy purgar nombre de host

ceph-deploy purgedata nombre de host

Purge eliminará los archivos de configuración y de datos generados en / var / lib / ceph, y desinstalará el paquete de software ceph. Pergedata solo eliminará los archivos de configuración y los archivos de datos generados en / var / lib / ceph.

Esta operación no limpia el disco osd.


Crear usuario y clave

ceph auth get-or-create client.admin mds 'allow' osd 'allow' mon 'allow'> /etc/ceph/ceph.client.admin.keyring 

o

ceph auth get-or-create client.admin mds 'allow' osd 'allow' mon 'allow' -o /etc/ceph/ceph.client.admin.keyring

Aquí se creará un usuario client.admin


Cree un usuario para osd.0 y cree una clave (archivo de autenticación del clúster)

ceph auth get-or-create osd.0 mon 'allow rwx' osd 'allow' -o / var / lib / ceph / osd / ceph-0 / keyring


Ver los usuarios autenticados y las claves relacionadas en el clúster ceph

lista de autenticación ceph

[root@ecos75r018-meijia-31-161 ~]# ceph auth listinstalled auth entries:
mds.ceph-ecos75r018-meijia-31-161  key: AQAcHrtfvD9pHhAAD0MVY0t/W7wyy5YJHGeH6A==  caps: [mds] allow *  caps: [mgr] profile mds  caps: [mon] profile mds  caps: [osd] allow *mds.ecos75r018-meijia-31-161  key: AQDVcLdfIJUAAxAAZl6Exsdh4chF5+Nbti84yA==  caps: [mds] allow  caps: [mon] allow profile mds  caps: [osd] allow rwxosd.0  key: AQDcvTNf9KNpHhAATrdapsznJfcyS0iYLW8bKw==  caps: [mgr] allow profile osd  caps: [mon] allow profile osd  caps: [osd] allow *osd.1  key: AQDtvTNfUd2zGBAAoUkCZfPbo58tUsehEky6HQ==  caps: [mgr] allow profile osd  caps: [mon] allow profile osd  caps: [osd] allow *osd.2  key: AQAuEEZfpD7xKBAAxjbnOEeBbYZ/5HT+1P9aIQ==  caps: [mgr] allow profile osd  caps: [mon] allow profile osd  caps: [osd] allow *client.admin  key: AQDmrzNfNwbqCBAAkWCeTEyKnKH1ZsyYS4KVQw==  caps: [mds] allow *  caps: [mgr] allow *  caps: [mon] allow *  caps: [osd] allow *client.bootstrap-mds  key: AQDmrzNfDizqCBAAECze/Hibrqz2nDwdRZdCUA==  caps: [mon] allow profile bootstrap-mdsclient.bootstrap-mgr  key: AQDmrzNfjUXqCBAA5pscEZ2rf/1F4kAZSSYcZw==  caps: [mon] allow profile bootstrap-mgrclient.bootstrap-osd  key: AQDmrzNfv17qCBAAplYPD3S0fDrKs1AHTinCug==  caps: [mon] allow profile bootstrap-osdclient.bootstrap-rbd  key: AQDmrzNfA3rqCBAACxy1rqD2XPIc/knLqzFqug==  caps: [mon] allow profile bootstrap-rbdclient.bootstrap-rbd-mirror  key: AQDmrzNfXZPqCBAANXqHy2NjPWwt268mU88Czw==  caps: [mon] allow profile bootstrap-rbd-mirrorclient.bootstrap-rgw  key: AQDmrzNfIrDqCBAAX2KRv1DUfAdhWb6E801How==  caps: [mon] allow profile bootstrap-rgwmgr.ecos75r018-meijia-31-161  key: AQC7vTNfoQfjBxAA6kMB3hTOQgxzPdHyRpXPMw==  caps: [mds] allow *  caps: [mon] allow profile mgr  caps: [osd] allow *


Eliminar un usuario autenticado en el clúster

ceph auth del osd.0


Ver la configuración de los parámetros operativos del clúster

ceph demonio {nombre-demonio} config show | más

[root @ ecos75r018-meijia-31-161 ~] # ceph demonio mon.ecos75r018-meijia-31-161 config show | más {"name": "mon.ecos75r018-meijia-31-161", "cluster": "ceph", "admin_socket": "/var/run/ceph/ceph-mon.ecos75r018-meijia-31-161. asok "," admin_socket_mode ":" "," auth_client_required ":" cephx "," auth_cluster_required ":" cephx "," auth_debug ":" false "," auth_mon_ticket_ttl ":" 43200.000000 "," auth_service_required "," "auth_service_ticket_ttl": "3600.000000", "auth_supported": "", "bdev_aio": "true", "bdev_aio_max_queue_depth": "1024", "


Ver el directorio donde se encuentra el registro ceph

ceph-conf --name mds.ecos75r018-meijia-31-161 --show-config-value log_file

[root @ ecos75r018-meijia-31-161 ~] # ceph-conf --name mds.ecos75r018-meijia-31-161 --show-config-value log_file / var / log / ceph / ceph-mds.ecos75r018-meijia -31-161.log


Supongo que te gusta

Origin blog.51cto.com/15080020/2654737
Recomendado
Clasificación