▶ 部署 Dashboard 1、安装 ceph-mgr-dashboard yum install -y ceph-mgr-dashboard 2、禁用 SSL ceph config set m
部署元数据服务器 每个CephFS文件系统至少需要一个MDS,集群维护者通常会根据需要使用其自动部署工具来启动所需的MDS服务器。推荐使用Rook和ansible(通过ceph-ansible剧本)
https://192.168.77.160:8006 进入控制台 查看一下ceph集群情况如下图:可以看到ceph集群是正常完好的 全部是OK的我们添加的9个硬盘也是都可以看到的 现在添加ceph到
1、简介 mon 操作 我还真是比较少,关于 mon 添加删除 操作 我反正 从来 没有 在线上环境执行过;哈哈哈,为了以备 不时之需,还是 练练手 了解下(有备无患 嘛);本文先 基于 ce
上文我们已经安装好了虚拟机,我们因为是ceph共享,所以我们模拟一下热迁移把安装的虚拟机迁移到node2上,(注意,记得把虚拟机DVD里面的ISO移除,不然迁移失败) 好现在迁移没有问题,下面配置高可
一:Ceph基础介绍 Ceph是一个可靠地、自动重均衡、自动恢复的分布式存储系统,根据场景划分可以将Ceph分为三大块,分别是对象存储、块设备存储和文件系统服务。 Ceph相比其它存储的优势点
准备下面的ceph存储集群(具体建立过程可以参考本博客的其他文章)其中集群的管理节点为store1,ip地址为10.8.20.11下面在这个集群上面创建一个40G的镜像,并把这个镜像作为iscsi的目
Ceph包含在rados bench RADOS存储集群上执行性能基准测试的命令。该命令将执行写测试和两种类型的读测试。--no-cleanup在测试读写性能时,该选项很重要。默认情况下,该rados
在使用过程中,当集群硬盘故障什么更换新的硬盘呢,下面我们来演示 查看ceph状态root@pve-1:~# ceph osd treeID CLASS WEIGHT TYPE NAME STATUS
当集群容量或者计算资源达到一定限定时,就需要对集群进行扩容,扩容操作主要可以分为两种 :1、纵向扩展:向已有节点中添加磁盘,容量增加,集群计算性能不变;2、横向扩展:添加新的节点,包括磁盘、内存、cp