随笔分类 -  ceph study

improve the troubleshooting of ceph
摘要:1.对更换完的硬盘进行划分raid0,并开启ssdcache功能 storcli64 /c1 add vd r0 size=all divers = 18:10 cached(storcli64 /c1 add vd r0 drives=18:10,storcli64 /c1/v9 set iopo 阅读全文
posted @ 2018-03-02 10:00 伊川草 阅读(1178) 评论(2) 推荐(0)
摘要:1.创建pool ses01:~ # ceph osd pool create test_pool 10240 10240pool 'test_pool' created 2.查看修改pool的副本数 ceph osd dump|grep 'replicated size'pool 0 'rbd' 阅读全文
posted @ 2017-12-13 17:48 伊川草 阅读(2720) 评论(0) 推荐(0)
摘要:1. ceph环境里,MON节点之间会进行时间误差(抖动)的校验,抖动时间超过预设的阀值,集群就会触发告警信息。 获取当前节点设置值 解决方案: 增加时间抖动报警的阀值 检查ceph状态 以上修改为暂时生效,想要永久生效即将调整写入到配置文件里(mon clock drift allowed = 0 阅读全文
posted @ 2017-11-28 13:57 伊川草 阅读(946) 评论(0) 推荐(0)
摘要:用ceph osd tree 命令查看ceph 集群,会发现有weight 和 reweight 两个值 weight 权重和磁盘的容量有关,一般1T,值为1.000, 500G就是0.5 其和磁盘的容量有关系,不因磁盘可用空间的减少而变化 其可以通过以下命令设置 ceph osd crush re 阅读全文
posted @ 2017-08-01 15:44 伊川草 阅读(1398) 评论(0) 推荐(0)
摘要:注1:如果是在已有的osd节点加盘扩容 Step1: 登录到admin节点,切换到/root/ceph-deploy Step2: ceph-deploy disk list node-131 #查看新加节点为node-131的盘符信息 Step3: ceph-deploy disk zap nod 阅读全文
posted @ 2017-07-17 10:21 伊川草 阅读(2806) 评论(0) 推荐(0)
摘要:1.通过命令ceph -s 或者ceph health检查ceph 状态,有osd near full cluster bef6d01c-631b-4355-94fe-77d4eb1a6322 health HEALTH_WARN 4 near full osd(s) 2.ceph health d 阅读全文
posted @ 2017-07-14 17:57 伊川草 阅读(5885) 评论(0) 推荐(0)
摘要:vdbench测试 HD:主机定义 · 如果您希望展示当前主机,则设置 hd= localhost。如果希望指定一个远程主机,hd= label。 · system= IP 地址或网络名称。 · clients= 用于模拟服务器的正在运行的客户端数量。 SD:存储定义 · sd= 标识存储的名称。 阅读全文
posted @ 2017-03-23 10:19 伊川草 阅读(2793) 评论(0) 推荐(0)