10 2020 档案

摘要:1、使用rbd rm删除image 2020-10-31T07:34:50.079+0000 7fa2e53dd700 -1 librbd::image::PreRemoveRequest: 0x5563cae15e90 check_image_watchers: image has watcher 阅读全文
posted @ 2020-10-31 15:55 lswweb 阅读(1753) 评论(0) 推荐(0)
摘要:昨天一块osd硬盘不幸去世了,经过一番努力后新硬盘挂载进rook ceph cluster,并且ceph自动开始进行数据均衡。今天打开后发现Health是ERROR状态,难道新硬盘数据均衡出现问题了? 1、进入ceph tools pod 2、检测ceph状态 好吧,是真的出问题了,只不过这种属于小 阅读全文
posted @ 2020-10-30 14:30 lswweb 阅读(839) 评论(0) 推荐(0)
摘要:今天突然一个osd节点pod一直无法正常运行,查看logs后发现报出的错误信息没办法判断是出了什么问题,在网络上搜索也没有找到解决办法,无奈之下只能决定格式化osd节点硬盘,重新加载试试。 1、进入rook ceph toolbox工具pod 2、命名用ceph命令查询并删除osd 3、删除相关os 阅读全文
posted @ 2020-10-29 10:03 lswweb 阅读(4946) 评论(0) 推荐(0)
摘要:前置需求 POD 名称ks-installer-58b9cf7c4c-qtgrn进入Pod修改/etc/resolv.conf文件权限(文件原为只读) 进入Pod修改/etc/resolv.conf文件权限(文件原为只读) 遭遇问题 1、通过k8s exec命令进入pod 2、修改resolv.co 阅读全文
posted @ 2020-10-27 11:09 lswweb 阅读(5007) 评论(0) 推荐(0)
摘要:系统环境Centos8Kubernetes 1.19.3 集群( 3 master + 3 work)Rook安装ceph集群(3 osd配置在master节点)问题描述 通过指定Pod StorageClass关联动态创建ceph block pv,当Pod实例调度到master节点后一直处于Pe 阅读全文
posted @ 2020-10-22 18:13 lswweb 阅读(5028) 评论(0) 推荐(1)