摘要: 故障状态: 实施更换步骤: (1)关闭ceph集群数据迁移: osd硬盘故障,状态变为down。在经过mod osd down out interval 设定的时间间隔后,ceph将其标记为out,并开始进行数据迁移恢复。为了降低ceph进行数据恢复或scrub等操作对性能的影响,可以先将其暂时关闭 阅读全文
posted @ 2024-01-05 09:44 録沀 阅读(297) 评论(0) 推荐(0)
摘要: 一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph-deploy disk zap ra 阅读全文
posted @ 2024-01-05 09:39 録沀 阅读(226) 评论(0) 推荐(0)
摘要: 1、查看ceph集群配置信息 1 ceph daemon /var/run/ceph/ceph-mon.$(hostname -s).asok config show 2、在部署节点修改了ceph.conf文件,将新配置推送至全部的ceph节点 1 ceph-deploy --overwrite-c 阅读全文
posted @ 2024-01-05 09:18 録沀 阅读(97) 评论(0) 推荐(0)