准备下面个集群
一个计算集群,包含3台pve主机,只安装pve
管理主机是comp1(IP:10.8.20.21)这台
计算集群
一个存储集群,包含4台pve主机,安装pve和内部集成的ceph
mgr:store1( 管理主机是store1这台 ,IP:10.8.20.11 )
mon: store1 store2 store3 store4
osd: store2 store3 store4
ceph的存储池名:store-pool
存储集群
下面配置计算集群能够使用存储集群上的ceph存储,在计算集群上添加一个rbd,使用存储集群的ceph,
1、保证 2个集群内的主机能够相互通讯
2、在计算集群的comp1上面添加对存储集群上ceph的访问权限
在comp1 (计算节点,IP:10.8.20.21) 的shell下执行下面2个命令:
mkdir /etc/pve/priv/ceph
scp root@10.8.20.11:/etc/ceph/ceph.client.admin.keyring /etc/pve/priv/ceph/ceph-external.keyring
输入yes和store1(10.8.20.11)的root用户的密码复制 ceph.client.admin.keyring 文件, ceph-external是要添加的RBD的ID。
3、添加RBD
登录comp1(10.8.20.21,计算节点)的web管理平台,点击数据中心→存储→“添加”按钮,选择BRD:
添加RBD
RBD的ID是上面复制过来的文件名: ceph-external
存储池: store-pool(就是建立存储集群时建立的存储池名称)
Monitors:存储集群ceph的监视器,输入IP,多个用空格隔开,这里添加了3个:
添加好之后,刷新一下comp1的web管理平台,即可看到多了一个名为ceph-external的存储,确认其大小不是N/A。
可以在上面建立和运行虚拟机
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。