本篇文章给大家分享的是有关ubuntu14.04使用ceph-deploy配置的分析,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。
分类: ceph 集群 分布式存储 2015-01-22 14:53 20人阅读 评论(0) 收藏 编辑 删除
1.如果以前安装过ceph,在此机器上运行
sudo stop ceph-all 停止所有ceph进程
ceph-deploy uninstall [{ceph-node}] 卸载所有ceph程序
ceph-deploy purge [[ceph-node} [{ceph-node}] 删除ceph相关的包
ceph-deploy purgedata {ceph-node} [{ceph-node}] 删除ceph相关的包
ceph-deploy forgetkeys 删除key
2。安装
2.1 mkdir my-cluster
2.2 cd my-cluster/
2.3 ceph-deploy new ceph-admin(此处主机hostname就是ceph.conf中mon初始member)
2.4 vim ceph.conf osd pool default size = 2(此行添加到文件末尾,设置冗余备份为2,若osd>=3,则可以不设置此项)
2.5 ceph-deploy install ceph-admin osd0 osd1 mds 在这几台机器上分别安装ceph
2.6 ceph-deploy mon create-initial 在根据前面ceph.conf中mon的初始化member成员,创建并初始化监视器
2.7 修改权限 chmod 777 ceph.client.admin.keyring ,以及 sudo chmod 777 /etc/ceph/ceph.client.admin.keyring
2.8 ceph-deploy disk list osd0 osd1 列出osd0 ,osd1上面可以用的磁盘
2.9.ceph-deploy disk zap osd0:sdb osd1:sd{b,c} 格式化osd0上的sdb盘;os1上的sdb,sdc盘为xfs
ceph-deploy osd create osd0:sdb osd1:sd{b,c} 在osd0,sdb上创建osd 在osd1,sdb,sdc上创建osd
ceph status 查看ceph 状态,正常为 health o
2.10 ceph-deploy admin ceph-admin osd0 osd1 mds 拷贝配置文件到每一台机器上。
2.11 ceph-deploy mds create mds 在mds机器上创建一个元数据服务器mds。
(注意当pool default size是2时:这里当时3个osd时,存在1个pg remap,当时2个osd时,完全是clean正常。根据情况可以调整。)
注意:1.当集群运行起来之后,如果需要添加mon,这使用命令ceph-deploy mon add 而不是ceph-deploy mon create(只能在第一次创建集群的时候使用)。
2. 向多个Mon添加cephfs客户端时,写法如下所示: sudo ceph-fuse -k ./ceph.client.admin.keyring -m 10.32.170.104,10.32.170.106,10.32.170.107:6789 /home/ceph/cephfs
3.出现时钟偏差时,解决如下:ntpdate ipaddress , hwclock --systohc ,如果还未解决,则如下修改:
/etc/ceph/ceph.conf中设置monitor间的允许时钟偏移最大值
1 2 3 4 | [mon] mon data =/data/$name mon clock drift allowed = 2 mon clock drift warn backoff = 30 |
以上就是ubuntu14.04使用ceph-deploy配置的分析,小编相信有部分知识点可能是我们日常工作会见到或用到的。希望你能通过这篇文章学到更多知识。更多详情敬请关注亿速云行业资讯频道。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。