摘要:
故障状态: 实施更换步骤: (1)关闭ceph集群数据迁移: osd硬盘故障,状态变为down。在经过mod osd down out interval 设定的时间间隔后,ceph将其标记为out,并开始进行数据迁移恢复。为了降低ceph进行数据恢复或scrub等操作对性能的影响,可以先将其暂时关闭 阅读全文
posted @ 2024-01-05 09:44
録沀
阅读(297)
评论(0)
推荐(0)
摘要:
一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph-deploy disk zap ra 阅读全文
posted @ 2024-01-05 09:39
録沀
阅读(226)
评论(0)
推荐(0)
摘要:
1、查看ceph集群配置信息 1 ceph daemon /var/run/ceph/ceph-mon.$(hostname -s).asok config show 2、在部署节点修改了ceph.conf文件,将新配置推送至全部的ceph节点 1 ceph-deploy --overwrite-c 阅读全文
posted @ 2024-01-05 09:18
録沀
阅读(97)
评论(0)
推荐(0)
浙公网安备 33010602011771号