ceph之换盘2

1.

2.

1.找到down的osd
Ceph osd tree |grep down
2.找到osd所在节点
Ceph osd find $osd-id
3.卸载挂载点
Umount /dev/sdk1
4.获取osd的uuid,记录下来,注意:第9步绑定用
Ceph osd dump |grep osd.$osd-id
5.如果没有out,踢掉
ceph osd out $osd-id
6.删除认证
ceph auth del osd.$osd-id
7.若分区已存在执行下,若无则跳过
sudo dd if=/dev/zero of=/dev/sdk2 bs=512 count=1000
sudo dd if=/dev/zero of=/dev/sdk1 bs=512 count=1000
标记为gpt分区
sudo parted -a optimal --script /dev/sdk mklabel gpt

sudo ceph-disk zap /dev/sdk
8.准备
sudo ceph-disk prepare /dev/sdk --osd-uuid 8f6f0a41-231b-45cb-ba81-1fe26cbb4b7b
9.启动
sudo systemctl start ceph-disk@/dev/sdk1
10.正常上面就可以加入集群,若没有手动加入下即可
ceph osd in 680
11观察集群状态
Ceph -s
 

 

3.

4

 

posted @ 2018-11-12 09:23  larlly  阅读(157)  评论(0)    收藏  举报