Iniciar y detener el proceso de cefalorraquídeo
systemctl reiniciar | detener | iniciar ceph-mon @ host
systemctl reiniciar | detener | iniciar ceph-osd @ id
[root @ ecos75r018-meijia-31-161 ~] # systemctl restart ceph-mon @ ecos75r018-meijia-31-161 [root @ ecos75r018-meijia-31-161 ~] # systemctl status ceph-mon @ ecos75r018-meijia-31 -161 ● [email protected] - Demonio de monitor de clúster Ceph Cargado: cargado (/usr/lib/systemd/system/[email protected]; habilitado; preajuste del proveedor: deshabilitado) Activo: activo (en ejecución) desde lun 2020-12-14 14:49:37 CST; Hace 14s PID principal: 369889 (ceph-mon) CGroup: /system.slice/system-ceph\x2dmon.slice/[email protected] └─369889 / usr / bin / ceph-mon -f --cluster ceph --id ecos75r018-meijia-31-161 --setuser ceph --setgroup cephDec 14 14:49:37 ecos75r018-meijia-31-161 systemd [1]: Se inició el demonio del monitor de clúster Ceph. 14:49:37 ecos75r018-meijia-31-161 systemd [1]: Iniciando el demonio del monitor de clúster Ceph ...
Verificar el estado de salud del clúster
ceph salud
[root @ ecos75r018-meijia-31-161 ~] # ceph healthHEALTH_OK
Verifique la información del estado del clúster
ceph -s
[root@ecos75r018-meijia-31-161 ~]# ceph -s
cluster:
id: f60e6370-14ff-44cc-b99c-70b17df8549c
health: HEALTH_OK
services:
mon: 1 daemons, quorum ecos75r018-meijia-31-161 (age 7m)
mgr: ecos75r018-meijia-31-161(active, since 4d)
mds: cephfs_mj:1 {0=ecos75r018-meijia-31-161=up:active}
osd: 3 osds: 3 up (since 4d), 3 in (since 2M)
task status:
scrub status:
mds.ecos75r018-meijia-31-161: idle
data:
pools: 4 pools, 240 pgs
objects: 51.56k objects, 199 GiB
usage: 597 GiB used, 2.4 TiB / 3.0 TiB avail
pgs: 240 active+clean
Observe el estado en tiempo real del clúster.
ceph -w
[root@ecos75r018-meijia-31-161 ~]# ceph -w
cluster:
id: f60e6370-14ff-44cc-b99c-70b17df8549c
health: HEALTH_OK
services:
mon: 1 daemons, quorum ecos75r018-meijia-31-161 (age 9m)
mgr: ecos75r018-meijia-31-161(active, since 4d)
mds: cephfs_mj:1 {0=ecos75r018-meijia-31-161=up:active}
osd: 3 osds: 3 up (since 4d), 3 in (since 2M)
task status:
scrub status:
mds.ecos75r018-meijia-31-161: idle
data:
pools: 4 pools, 240 pgs
objects: 51.56k objects, 199 GiB
usage: 597 GiB used, 2.4 TiB / 3.0 TiB avail
pgs: 240 active+clean
Observe los detalles del estado del clúster
detalle de salud ceph
Ver espacio de almacenamiento cefalométrico
ceph df
[root@ecos75r018-meijia-31-161 ~]# ceph df
RAW STORAGE:
CLASS SIZE AVAIL USED RAW USED %RAW USED
hdd 3.0 TiB 2.4 TiB 594 GiB 597 GiB 19.43
TOTAL 3.0 TiB 2.4 TiB 594 GiB 597 GiB 19.43
POOLS:
POOL ID STORED OBJECTS USED %USED MAX AVAIL
rbd_pool 3 197 GiB 51.54k 594 GiB 23.48 645 GiB
ceph_pool 4 0 B 0 0 B 0 645 GiB
cephfs_data 5 0 B 0 0 B 0 645 GiB
cephfs_metadata 6 8.3 KiB 22 1.5 MiB 0 645 GiB
La salida contiene dos dimensiones, el uso de la dimensión global (ALMACENAMIENTO SIN PROCESAR) y el uso de la dimensión del grupo de almacenamiento (PISCINAS)
Limpia los datos y desinstala el paquete.
ceph-deploy purgar nombre de host
ceph-deploy purgedata nombre de host
Purge eliminará los archivos de configuración y de datos generados en / var / lib / ceph, y desinstalará el paquete de software ceph. Pergedata solo eliminará los archivos de configuración y los archivos de datos generados en / var / lib / ceph.
Esta operación no limpia el disco osd.
Crear usuario y clave
ceph auth get-or-create client.admin mds 'allow' osd 'allow' mon 'allow'> /etc/ceph/ceph.client.admin.keyring
o
ceph auth get-or-create client.admin mds 'allow' osd 'allow' mon 'allow' -o /etc/ceph/ceph.client.admin.keyring
Aquí se creará un usuario client.admin
Cree un usuario para osd.0 y cree una clave (archivo de autenticación del clúster)
ceph auth get-or-create osd.0 mon 'allow rwx' osd 'allow' -o / var / lib / ceph / osd / ceph-0 / keyring
Ver los usuarios autenticados y las claves relacionadas en el clúster ceph
lista de autenticación ceph
[root@ecos75r018-meijia-31-161 ~]# ceph auth list
installed auth entries:
mds.ceph-ecos75r018-meijia-31-161
key: AQAcHrtfvD9pHhAAD0MVY0t/W7wyy5YJHGeH6A==
caps: [mds] allow *
caps: [mgr] profile mds
caps: [mon] profile mds
caps: [osd] allow *
mds.ecos75r018-meijia-31-161
key: AQDVcLdfIJUAAxAAZl6Exsdh4chF5+Nbti84yA==
caps: [mds] allow
caps: [mon] allow profile mds
caps: [osd] allow rwx
osd.0
key: AQDcvTNf9KNpHhAATrdapsznJfcyS0iYLW8bKw==
caps: [mgr] allow profile osd
caps: [mon] allow profile osd
caps: [osd] allow *
osd.1
key: AQDtvTNfUd2zGBAAoUkCZfPbo58tUsehEky6HQ==
caps: [mgr] allow profile osd
caps: [mon] allow profile osd
caps: [osd] allow *
osd.2
key: AQAuEEZfpD7xKBAAxjbnOEeBbYZ/5HT+1P9aIQ==
caps: [mgr] allow profile osd
caps: [mon] allow profile osd
caps: [osd] allow *
client.admin
key: AQDmrzNfNwbqCBAAkWCeTEyKnKH1ZsyYS4KVQw==
caps: [mds] allow *
caps: [mgr] allow *
caps: [mon] allow *
caps: [osd] allow *
client.bootstrap-mds
key: AQDmrzNfDizqCBAAECze/Hibrqz2nDwdRZdCUA==
caps: [mon] allow profile bootstrap-mds
client.bootstrap-mgr
key: AQDmrzNfjUXqCBAA5pscEZ2rf/1F4kAZSSYcZw==
caps: [mon] allow profile bootstrap-mgr
client.bootstrap-osd
key: AQDmrzNfv17qCBAAplYPD3S0fDrKs1AHTinCug==
caps: [mon] allow profile bootstrap-osd
client.bootstrap-rbd
key: AQDmrzNfA3rqCBAACxy1rqD2XPIc/knLqzFqug==
caps: [mon] allow profile bootstrap-rbd
client.bootstrap-rbd-mirror
key: AQDmrzNfXZPqCBAANXqHy2NjPWwt268mU88Czw==
caps: [mon] allow profile bootstrap-rbd-mirror
client.bootstrap-rgw
key: AQDmrzNfIrDqCBAAX2KRv1DUfAdhWb6E801How==
caps: [mon] allow profile bootstrap-rgw
mgr.ecos75r018-meijia-31-161
key: AQC7vTNfoQfjBxAA6kMB3hTOQgxzPdHyRpXPMw==
caps: [mds] allow *
caps: [mon] allow profile mgr
caps: [osd] allow *
Eliminar un usuario autenticado en el clúster
ceph auth del osd.0
Ver la configuración de los parámetros operativos del clúster
ceph demonio {nombre-demonio} config show | más
[root @ ecos75r018-meijia-31-161 ~] # ceph demonio mon.ecos75r018-meijia-31-161 config show | más {"name": "mon.ecos75r018-meijia-31-161", "cluster": "ceph", "admin_socket": "/var/run/ceph/ceph-mon.ecos75r018-meijia-31-161. asok "," admin_socket_mode ":" "," auth_client_required ":" cephx "," auth_cluster_required ":" cephx "," auth_debug ":" false "," auth_mon_ticket_ttl ":" 43200.000000 "," auth_service_required "," "auth_service_ticket_ttl": "3600.000000", "auth_supported": "", "bdev_aio": "true", "bdev_aio_max_queue_depth": "1024", "
Ver el directorio donde se encuentra el registro ceph
ceph-conf --name mds.ecos75r018-meijia-31-161 --show-config-value log_file
[root @ ecos75r018-meijia-31-161 ~] # ceph-conf --name mds.ecos75r018-meijia-31-161 --show-config-value log_file / var / log / ceph / ceph-mds.ecos75r018-meijia -31-161.log