文章分类 - Ceph
摘要:前提 银河麒麟 V10 部署 K8S v1.29.15 集群 -> https://www.cnblogs.com/klvchen/p/19273665 银河麒麟 V10 安装 ceph reef 集群-> https://www.cnblogs.com/klvchen/articles/19268
阅读全文
摘要:背景 操作系统: Kylin Linux Advanced Server V10 (Lance) IP 主机名 OSD 设备 ceph-01 192.168.10.151 /dev/xvdb ceph-02 192.168.10.152 /dev/xvdb ceph-03 192.168.10.15
阅读全文
摘要:现象是 osd.0 使用率达到了 95% 以上,导致整个 ceph 集群不可用, ceph 集群健康为 err 状态 root@k8s-master01:/data/yaml/kube-system/zookeeper# ceph osd df ID CLASS WEIGHT REWEIGHT SI
阅读全文
摘要:在所有dashboard节点上安装插件包。 启动 ceph-mgr 的IP为 192.168.123.199 yum install -y ceph-mgr-dashboard -y # 开启插件 ceph mgr module enable dashboard # 禁用SSL。 ceph conf
阅读全文
摘要:解决办法,重建 mon 节点数据 systemctl stop ceph-mon.target cd /var/lib/ceph/mon/ # 获取所有的 monitor 的信息 ceph mon getmap -o /tmp/monmap cp -a ceph-ceph-node2/keyring
阅读全文
摘要:例子 cat filesystem-pvc.yaml apiVersion: v1 kind: PersistentVolumeClaim metadata: name: filesystem-rbd-pvc spec: accessModes: - ReadWriteOnce volumeMode
阅读全文
摘要:查看某个 pool 下的 img rbd -p ceph-demo ls 创建 img rbd create ceph-demo/ceph-trash.img --size 1G 删除 img rbd rm ceph-demo/ceph-trash.img 把 img 移到回收站 rbd creat
阅读全文
摘要:查看 osd 池 ceph osd lspools 列出 osd 池所在的主机位置 ceph osd tree 列出指定节点上的 OSD 详细信息: ceph-deploy osd list node-1 设置 ceph 不进行平衡操作 ceph osd set norebalance ceph o
阅读全文

浙公网安备 33010602011771号