温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

使用ceph-deploy搭建三节点ceph集群

发布时间:2020-07-13 16:29:27 来源:网络 阅读:1844 作者:哆先生 栏目:建站服务器

本文参照臧学雪园老师的Ceph基础篇视频教程加以归纳整理,再次感谢臧雪园老师。
基础环境的准备

实验拓扑图:
使用ceph-deploy搭建三节点ceph集群

首先准备基础环境,因为我的笔记本电脑内存只有4G,所以三台虚拟机全部使用最小安装。

ceph2:192.168.6.145   每台主机准备四块磁盘,sda作为系统盘,其它三块作为ceph的OSD服务磁盘使用
ceph3:192.168.6.146
ceph4:192.168.6.147

systemctl stop firewalld           
systemctl disable firewalld     //关闭防火墙并设置开机不启动
vim /etc/selimux/config
selinux=disabled                //更改selinux的模式  
hostnamectl set-hostname ceph2   //三台主机名分别设置为ceph2-3,注意这里使用短主机名

然后准备安装ceph集群的环境变量

以下配置三台机器都需要设置
vim /openrc                  //编辑一个文本
export username="ceph-admin"     //安装时使用ceph-admin一般用户安装,这里设置一个变量方便后面调用    
export passwd="ceph-admin"         
export node1="ceph2"                   //设置主机名的环境变量
export node2="ceph3"
export node3="ceph4"
export node1_ip="192.168.6.145"   //设置主机ip地址的环境变量
export node2_ip="192.168.6.146"
export node3_ip="192.168.6.147"
下载ceph的rpm源
wget -O /etc/yum.repos.d/ceph.repo https://raw.githubusercontent.com/aishangwei/ceph-demo/master/ceph-deploy/ceph.repo
配置ntp
yum install -y ntp ntpdate
ntpdate cn.ntp.org.cn
systemctl restart ntpd
systemctl enable ntpd
systemctl enable ntpdate
创建部署用户
useradd  ${username}       //创建ceph-admin用户,用于集群部署
echo "${passwd}"  | passwd --stdin ${username}
echo "${username} ALL = (root) NOPASSWD:ALL"  | sudo tee /etc/sudoers.d/ceph-admin  //设置ceph-admin执行特殊命令时的sudo权限
chmod 0440  /etc/sudoers.d/ceph-admin   更该文件权限
配置三台主机的主机名解析
vim /etc/hosts
192.168.6.145    ceph2                 
192.168.6.146    ceph3
192.168.6.147    ceph4

配置三台主机的ssh免密钥登录

su - ceph-admin
ssh-keygen
ssh-copy-id ceph-admin@ceph2
ssh-copy-id ceph-admin@ceph3
ssh-copy-id ceph-admin@ceph4

使用ceph-deploy部署集群

安装ceph-deploy
sudo yum install -y ceph-deploy python-pip //注意python-pip需要使用epel源,提前将epel源配置好
mkdir  my-cluster      //创建安装目录
cd my-cluster
进行节点部署
ceph-deploy new ceph2 ceph3 ceph4    //这里务必要保证三台主机的网络是互通的
安装完之后my-cluster目录下面会生成三个文件
ceph.conf
ceph-deploy-ceph.log
ceph.mon.keyring
编辑ceph.conf配置文件,在最后添加一下信息
sudo vim  ~/my-cluster/ceph.conf
public network = 192.168.6.0/24
cluster network = 192.168.6.0/24
安装ceph包
sudo  yum install -y ceph ceph-radosgw         //三个节点上都要安装,这两个包需要使用epel源,两外两个节点需要配置好epel源
配置初始的monitor并收集所有密钥:
ceph-deploy mon create-initial
把配置信息拷贝到各节点
ceph-deploy admin ceph2 ceph3 ceph4 
配置osd
使用for循环语句执行(也可以写到文本中做成脚本执行)
for dev in /dev/sdb  /dev/sdc /dev/sdd         //注意磁盘名称,可以使用lsblk命令进行查看
do
        ceph-deploy disk zap ceph2 $dev
        ceph-deploy osd create ceph2 --data  $dev
        ceph-deploy disk zap ceph3 $dev
        ceph-deploy osd create ceph3 --data  $dev
        ceph-deploy disk zap ceph4 $dev
        ceph-deploy osd create ceph4 --data  $dev
done
配置完OSD之后,部署mgr用于监控整个集群
ceph-deploy mgr create ceph2 ceph3 ceph4 
开启dashboard模块,启用浏览器界面
在开启dashboard模块之前要注意,因为我们是使用ceph-admin一般用户进行安装,所有无法调用/etc/ceph/下面的文件,将/etc/ceph目录下面的文件属主属组全部更改为ceph-admin
sudo chown -R ceph-admin /etc/ceph
然后加载dashboard模块
ceph mgr module enable dashboard 
加载完模块之后查看7000号端口号是否正常监听
ss -ntl 
打开浏览器输入192.168.6.145:7000查看ceph存储集群整体状况

此时使用ceph-deploy部署三节点集群配置完毕

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI