温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

配置pve集群使用外部的ceph存储

发布时间:2020-04-07 01:07:57 来源:网络 阅读:1038 作者:ygj900629 栏目:云计算

准备下面个集群

一个计算集群,包含3台pve主机,只安装pve

管理主机是comp1(IP:10.8.20.21)这台

配置pve集群使用外部的ceph存储

计算集群


一个存储集群,包含4台pve主机,安装pve和内部集成的ceph

mgr:store1( 管理主机是store1这台 ,IP:10.8.20.11 )

mon: store1 store2 store3 store4

osd: store2 store3 store4

ceph的存储池名:store-pool

配置pve集群使用外部的ceph存储

存储集群


下面配置计算集群能够使用存储集群上的ceph存储,在计算集群上添加一个rbd,使用存储集群的ceph,

1、保证 2个集群内的主机能够相互通讯

2、在计算集群的comp1上面添加对存储集群上ceph的访问权限

在comp1 (计算节点,IP:10.8.20.21) 的shell下执行下面2个命令:

mkdir /etc/pve/priv/ceph
scp root@10.8.20.11:/etc/ceph/ceph.client.admin.keyring /etc/pve/priv/ceph/ceph-external.keyring

输入yes和store1(10.8.20.11)的root用户的密码复制 ceph.client.admin.keyring 文件, ceph-external是要添加的RBD的ID。

配置pve集群使用外部的ceph存储

3、添加RBD

登录comp1(10.8.20.21,计算节点)的web管理平台,点击数据中心→存储→“添加”按钮,选择BRD:

配置pve集群使用外部的ceph存储

添加RBD

RBD的ID是上面复制过来的文件名: ceph-external

存储池: store-pool(就是建立存储集群时建立的存储池名称)

Monitors:存储集群ceph的监视器,输入IP,多个用空格隔开,这里添加了3个:

配置pve集群使用外部的ceph存储

添加好之后,刷新一下comp1的web管理平台,即可看到多了一个名为ceph-external的存储,确认其大小不是N/A。

配置pve集群使用外部的ceph存储

可以在上面建立和运行虚拟机

配置pve集群使用外部的ceph存储


向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI