ubuntu 18.04 acumulación cef luminosa 12.2.12 crear OSD

1, ubuntu cef acumulación

  • ceph-deployinstalar
wget --no-check-certificate -q -O- 'https://download.ceph.com/keys/release.asc' | apt-key add -
echo deb https://download.ceph.com/debian-luminous/ $(lsb_release -sc) main | sudo tee /etc/apt/sources.list.d/ceph.list
sudo apt update
sudo apt install ceph-deploy

2, el nodo

  • instalarNTP
sudo apt install ntpsec
apt-get install ntp
  • anfitriones conjunto
  • vistahostname
# hostname
node1
  • El nodo maestro tiene que añadir otros anfitriones nodos
# vim /etc/hosts
192.168.1.20 node1
192.168.1.21 node2
192.168.1.22 node3
  • rootteclas libres SSH de configuración de usuario, el nodo maestro pueden ser otra tecla de entrada de nodo para libre
ssh-keygen
ssh-copy-id root@node2
ssh-copy-id root@node3
  • aterrizaje con éxito el nodo 2, una configuración correcta sin llave.
ssh node2

3. instalación de clúster

mkdir my-cluster
cd my-cluster
  • Crear un clúster nodo maestro
# ceph-deploy new node1
  • Cada nodo necesita ser instaladopython-minimal
apt install python-minimal -y 
  • la instalación del paquete de instalación Ceph
ceph-deploy install node1 node2 node3
  • Registro de instalación
[node3][DEBUG ] ceph 已经是最新版 (12.2.12-0ubuntu0.18.04.4)[node3][DEBUG ] ceph-mon 已经是最新版 (12.2.12-0ubuntu0.18.04.4)[node3][DEBUG ] ceph-osd 已经是最新版 (12.2.12-0ubuntu0.18.04.4)[node3][DEBUG ] radosgw 已经是最新版 (12.2.12-0ubuntu0.18.04.4)[node3][DEBUG ] ceph-mds 已经是最新版 (12.2.12-0ubuntu0.18.04.4)

3.1 fuente Netease

  • Ubuntu 18.04 Cada nodo necesidad de añadir la fuente de actualización, ejecuteapt update
# 默认注释了源码镜像以提高 apt update 速度,如有需要可自行取消注释
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ bionic main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ bionic main restricted universe multiverse
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ bionic-updates main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ bionic-updates main restricted universe multiverse
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ bionic-backports main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ bionic-backports main restricted universe multiverse
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ bionic-security main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ bionic-security main restricted universe multiverse

  • El cef fuente nodo maestro añadido
export CEPH_DEPLOY_REPO_URL=http://mirrors.163.com/ceph/debian-luminous
export CEPH_DEPLOY_GPG_URL=http://mirrors.163.com/ceph/keys/release.asc
ceph-deploy install node1 node2 node3 node4
  • añadirpublic_network
# vim ceph.conf 
public_network = 192.168.1.0/24

4. Crear un mon

ceph-deploy mon create-initial
  • Copiar el archivo de configuración para cada nodo
ceph-deploy admin node1 node2 node3
  • La creación de 3 mon
ceph-deploy mon create node1 node2 node3
  • Ver el estado del clúster
# ceph -s
    health: HEALTH_OK
    mon: 3 daemons, quorum node1,node2,node3

5, crearmgr

ceph-deploy mgr create node1 node2 node3
ceph mgr module enable dashboard

6, crear OSD

  • formato de disco vista
# blkid -o value -s TYPE /dev/sda1
ext4
# umount /dev/sda1
# mkfs.ext4 /dev/sda
  • Borrar disco
ceph-deploy disk zap node1:/dev/sda
  • ~ Ceph-Implementar PREPARAR / no se puede utilizar la instrucción de activación ~
ceph-deploy osd prepare --fs-type xfs node1:/dev/sda
sda           8:0    0   7.3T  0 disk 
├─sda1        8:1    0   100M  0 part /var/lib/ceph/osd/ceph-0
└─sda2        8:2    0   7.3T  0 part 
  • - activar el OSD ~
ceph-deploy osd activate node1:/dev/sda1
# ceph-deploy disk list node1
[node1][DEBUG ] /dev/sda :
[node2][DEBUG ]  /dev/sda1 ceph data, active, cluster ceph, osd.0, block /dev/sda2
[node3][DEBUG ]  /dev/sda2 ceph block, for /dev/sda1

6.1, borrado OSD

  • Ver el estado OSD
# ceph osd tree
# ceph osd stat
# ceph osd status
# ceph -s
  • OSD cúmulo pateado
# ceph osd out 0
marked out osd.0. 
  • Detener OSD
# ceph osd down 0
marked down osd.0. 
# ceph osd crush remove osd.0
removed item id 0 name 'osd.0' from crush map

# ceph auth del osd.0
updated
  • OSD parada corriendo
systemctl status [email protected] 
systemctl stop [email protected] 
# ceph osd rm 0
removed osd.0

6,2, el aumento de la OSD

  • Formatear un disco
# mkfs.xfs -f /dev/sda
# blkid -o value -s TYPE /dev/sda
xfs
  • Actualizaceph-deploy
# ceph-deploy --version
1.5.38
# sudo apt-get install ceph-deploy
# ceph-deploy --version
2.01
# ceph-deploy disk zap node1:/dev/sda
# ceph-deploy osd create node1:/dev/sda
  • creación de OSD falla, un registro de errores
[node1][INFO  ] Running command: /usr/sbin/ceph-volume --cluster ceph lvm create --bluestore --data /dev/sdb
[node1][DEBUG ] --> Absolute path not found for executable: lvs
[node1][WARNIN] -->  OSError: [Errno 2] No such file or directory
[node1][DEBUG ] --> Ensure $PATH environment variable contains common executable locations
[node1][ERROR ] RuntimeError: command returned non-zero exit status: 1
[ceph_deploy.osd][ERROR ] Failed to execute command: /usr/sbin/ceph-volume --cluster ceph lvm create --bluestore --data /dev/sdb
[ceph_deploy][ERROR ] GenericError: Failed to create 1 OSDs
  • LVM instalación头皮发麻
apt install -y lvm2
  • OSD creado con éxito
ceph-deploy osd create --data /dev/sda node1
  • Añadir disco adicional para la OSD
# mkfs.xfs -f /dev/sdb
# ceph-deploy osd create --data /dev/sdb node1
# lvdisplay 
  LV Path                /dev/lvm_01/lv01
  • LVM Agregar OSD
ceph-deploy osd create --data  /dev/lvm_01/lv01 node2
  • Ver el estado OSD
ceph osd status

referencia:

  1. Ceph documento
  2. Github Ceph
  3. Instalar desde cero Ceph almacenamiento distribuido | entorno de Ubuntu
  4. ubuntu18.04 versión de escritorio despliegue cef versión 13.2.6
  5. -03 Ceph Ceph estructuras de grupo de almacenamiento
  6. L versión práctica Ceph - ubuntu desplegar luminosa versión Ceph
  7. Ceph notas de estudio incremento OSD
  8. Ceph Ceph de implementar un rápido despliegue de almacenamiento distribuido
  9. Ceph entender el proceso de creación uso OSD cef-disco: ¿Por qué montar la partición 100M
  10. cef de implementar error OSD: cef de implementar preparar / de instrucción de activación no se puede utilizar
  11. Manual de borrado OSD
  12. Detalles delete OSD
  13. actualización cef
Publicados 646 artículos originales · ganado elogios 179 · Vistas 1,15 millones +

Supongo que te gusta

Origin blog.csdn.net/u010953692/article/details/104734566
Recomendado
Clasificación