y5.第一章 Ceph企业级存储实战进阶 -- 部署Ceph集群(五)

3.4.20 从RADOS 移除OSD

Ceph 集群中的一个OSD 是一个node 节点的服务进程且对应于一个物理磁盘设备,是一个专用的守护进程。在某OSD 设备出现故障,或管理员出于管理之需确实要移除特定的OSD设备时,需要先停止相关的守护进程,而后再进行移除操作。对于Luminous 及其之后的版本来说,停止和移除命令的格式分别如下所示:

1. 停用设备:ceph osd out {osd-num}
2. 停止进程:sudo systemctl stop ceph-osd@{osd-num}
3. 移除设备:ceph osd purge {id} --yes-i-really-mean-it

若类似如下的OSD 的配置信息存在于ceph.conf 配置文件中,管理员在删除OSD 之后手动将其删除。

不过,对于Luminous 之前的版本来说,管理员需要依次手动执行如下步骤删除OSD 设备:

1. 于CRUSH 运行图中移除设备:ceph osd crush remove {name}
2. 移除OSD 的认证key:ceph auth del osd.{osd-num}
3. 最后移除OSD 设备:ceph osd rm {osd-num}

3.4.21 测试上传与下载数据

存取数据时,客户端必须首先连接至RADOS 集群上某存储池,然后根据对象名称由相关的CRUSH 规则完成数据对象寻址。于是,为了测试集群的数据存取功能,这里首先创建一个用于测试的存储池mypool,并设定其PG 数量为32 个。

 

猜你喜欢

转载自blog.csdn.net/qq_25599925/article/details/123847069