配置pve集群使用外部的ceph存储

准备下面个集群

一个计算集群,包含3台pve主机,只安装pve

管理主机是comp1(IP:10.8.20.21)这台

计算集群


一个存储集群,包含4台pve主机,安装pve和内部集成的ceph

mgr:store1( 管理主机是store1这台 ,IP:10.8.20.11 )

mon: store1 store2 store3 store4

osd: store2 store3 store4

ceph的存储池名:store-pool

存储集群


下面配置计算集群能够使用存储集群上的ceph存储,在计算集群上添加一个rbd,使用存储集群的ceph,

1、保证 2个集群内的主机能够相互通讯

2、在计算集群的comp1上面添加对存储集群上ceph的访问权限

在comp1 (计算节点,IP:10.8.20.21) 的shell下执行下面2个命令:

mkdir /etc/pve/priv/ceph
scp [email protected]:/etc/ceph/ceph.client.admin.keyring /etc/pve/priv/ceph/ceph-external.keyring

输入yes和store1(10.8.20.11)的root用户的密码复制 ceph.client.admin.keyring 文件, ceph-external是要添加的RBD的ID。

3、添加RBD

登录comp1(10.8.20.21,计算节点)的web管理平台,点击数据中心→存储→“添加”按钮,选择BRD:

添加RBD

RBD的ID是上面复制过来的文件名: ceph-external

存储池: store-pool(就是建立存储集群时建立的存储池名称)

Monitors:存储集群ceph的监视器,输入IP,多个用空格隔开,这里添加了3个:

添加好之后,刷新一下comp1的web管理平台,即可看到多了一个名为ceph-external的存储,确认其大小不是N/A。

可以在上面建立和运行虚拟机


猜你喜欢

转载自blog.51cto.com/11694088/2458010
今日推荐