随笔分类 -  存储相关

上一页 1 2 3 4 5 6 7 ··· 9 下一页
摘要:前言 ceph的rgw能够提供一个兼容性的s3的接口,既然是兼容性,当然不可能是所有接口都会兼容,那么我们需要有一个工具来进行接口的验证以及测试,这个在其他测试工具里面有类似的posix接口验证工具,这类的工具就是跑测试用例,来输出通过或者不通过的列表 用此类的工具有个好的地方就是,能够对接口进行验 阅读全文
posted @ 2018-06-27 17:17 武汉-磨渣 阅读(758) 评论(0) 推荐(0)
摘要:引言 最近接触了两个集群都使用到了erasure code,一个集群是hammer版本的,一个环境是luminous版本的,两个环境都出现了incomplete,触发的原因有类似的地方,都是有osd的离线的问题 准备在本地环境进行复验的时候,发现了一个跟之前接触的erasure不同的地方,这里做个记 阅读全文
posted @ 2018-06-12 10:43 武汉-磨渣 阅读(1043) 评论(0) 推荐(0)
摘要:前言 cephfs 在L版本已经比较稳定了,这个稳定的意义个人觉得是在其故障恢复方面的成熟,一个文件系统可恢复是其稳定必须具备的属性,本篇就是根据官网的文档来实践下这个恢复的过程 实践过程 部署一个ceph Luminous集群 [root@lab102 ~]# ceph -v ceph versi 阅读全文
posted @ 2018-05-29 23:37 武汉-磨渣 阅读(2052) 评论(0) 推荐(0)
摘要:##前言 cosbench的功能很强大,但是配置起来可能就有点不是太清楚怎么配置了,本篇将梳理一下这个测试的配置过程,以及一些测试注意项目,以免无法完成自己配置模型的情况 ##安装 cosbench模式是一个控制端控制几个driver向后端rgw发起请求 下载最新版本 https://github. 阅读全文
posted @ 2018-04-12 01:18 武汉-磨渣 阅读(2314) 评论(1) 推荐(0)
摘要:前言 最开始接触这个是在L版本的监控平台里面看到的,有个iscsi网关,但是没看到有类似的介绍,然后通过接口查询到了一些资料,当时由于有比较多的东西需要新内核,新版本的支持,所以并没有配置出来,由于内核已经更新迭代了几个小版本了,经过测试验证可以跑起来了,这里只是把东西跑起来,性能相关的对比需要根据 阅读全文
posted @ 2018-04-11 14:57 武汉-磨渣 阅读(858) 评论(0) 推荐(0)
摘要:前言 如果看到标题,你是不是第一眼觉得写错了,这个怎么可能,完全就是两个不相关的东西,最开始我也是这么想的,直到我发现真的是这样的时候,也是很意外,还是弄清楚下比较好,不然在某个操作下,也许就会出现意想不到的情况 定位 如果你看过我的博客,正好看过这篇 <<ceph在centos7下一个不容易发现的 阅读全文
posted @ 2018-03-23 23:54 武汉-磨渣 阅读(207) 评论(0) 推荐(0)
摘要:前言 关于VDO VDO的技术来源于收购的Permabit公司,一个专门从事重删技术的公司,所以技术可靠性是没有问题的 VDO是一个内核模块,目的是通过重删减少磁盘的空间占用,以及减少复制带宽,VDO是基于块设备层之上的,也就是在原设备基础上映射出mapper虚拟设备,然后直接使用即可,功能的实现主 阅读全文
posted @ 2018-02-10 16:26 武汉-磨渣 阅读(1238) 评论(0) 推荐(0)
摘要:前言 有一个ceph环境出现了异常,状态就是恢复异常的慢,但是所有数据又都在走,只是非常的慢,本篇将记录探测出问题的过程,以便以后处理类似的问题有个思路 处理过程 问题的现象是恢复的很慢,但是除此以外并没有其它的异常,通过iostat监控磁盘,也没有出现异常的100%的情况,暂时排除了是osd底层慢 阅读全文
posted @ 2018-01-16 23:10 武汉-磨渣 阅读(295) 评论(0) 推荐(0)
摘要:前言 关于qos的讨论有很多,ceph内部也正在实现着一整套的基于dmclock的qos的方案,这个不是本篇的内容,之前在社区的邮件列表看过有研发在聊qos的相关的实现的,当时一个研发就提出了在使用kernel rbd的时候,可以直接使用linux的操作系统qos来实现,也就是cgroup来控制读取 阅读全文
posted @ 2018-01-05 15:23 武汉-磨渣 阅读(494) 评论(0) 推荐(0)
摘要:前言 问题的触发是在进行一个目录的查询的时候,osd就会挂掉,开始以为是osd操作超时了,后来发现每次访问这个对象都有问题 log [WRN] : slow request 60.793196 seconds old, received at osd_op(mds.0.188:72834523410 阅读全文
posted @ 2018-01-02 22:22 武汉-磨渣 阅读(1239) 评论(0) 推荐(0)
摘要:前言 mds是ceph里面处理文件接口的组件,一旦使用文件系统,不可避免的会出现一种场景就是目录很多,目录里面的文件很多,而mds是一个单进程的组件,现在虽然有了muti mds,但稳定的使用的大部分场景还是单acitve mds的 这就会出现一种情况,一旦一个目录里面有很多文件的时候,去查询这个目 阅读全文
posted @ 2017-12-04 22:48 武汉-磨渣 阅读(945) 评论(0) 推荐(0)
摘要:前言 博客很久没有更新了,一个原因就是原来存放部署博客的环境坏了,硬盘使用的是SSD,只要读取到某个文件,整个磁盘就直接识别不到了,还好博客环境之前有做备份,最近一直没有把部署环境做下恢复,今天抽空把环境做下恢复并且记录一篇基础的GRUB的处理文档 这两天正好碰到GRUB损坏的事,很久前处理过,但是 阅读全文
posted @ 2017-11-30 22:52 武汉-磨渣 阅读(428) 评论(0) 推荐(0)
摘要:前言 本篇讲述的是一个比较极端的故障的恢复场景,在整个集群全部服务器突然掉电的时候,osd里面的osdmap可能会出现没刷到磁盘上的情况,这个时候osdmap的最新版本为空或者为没有这个文件 还有一种情况就是机器宕机了,没有马上处理,等了一段时间以后,服务器机器启动了起来,而这个时候osdmap已经 阅读全文
posted @ 2017-09-27 14:03 武汉-磨渣 阅读(830) 评论(0) 推荐(0)
摘要:前言 本篇来源于群里一个人的问题,有没有办法让ceph的磁盘不自动挂载,一般人的问题都是怎样让ceph能够自动挂载,在centos 7 平台下 ceph jewel版本以后都是有自动挂载的处理的,这个我之前也写过两篇文章《ceph在centos7下一个不容易发现的改变》和《Ceph数据盘怎样实现自动 阅读全文
posted @ 2017-09-07 00:30 武汉-磨渣 阅读(532) 评论(0) 推荐(0)
摘要:前言 服务器上面的服务会因为各种各样的原因失败,磁盘故障,权限问题,或者是服务过载引起超时,这些都可能引起 这个在ceph里面systemctl unit 默认有个on-fail restart,默认的可能并不适合所有的场景,所以自动化的服务应该是尽量去适配你手动处理的过程,手动怎么处理的,就怎么去 阅读全文
posted @ 2017-09-06 12:33 武汉-磨渣 阅读(783) 评论(0) 推荐(0)
摘要:前言 这个问题的来源是ceph社区里面一个群友的环境出现在85%左右的时候,启动osd报错,然后在本地文件系统当中进行touch文件的时候也是报错,df -i查询inode也是没用多少,使用的也是inode64挂载的,开始的时候排除了配置原因引起的,在ceph的邮件列表里面有一个相同问题,也是没有得 阅读全文
posted @ 2017-09-04 23:06 武汉-磨渣 阅读(842) 评论(0) 推荐(0)
摘要:前言 碰到一个cepher问了一个问题: 为什么我的OSD关闭到最后有92个OSD无法关闭,总共的OSD有300个左右 想起来在很久以前帮人处理过一次问题,当时环境是遇上了一个BUG,需要升级到新版本进行解决,然后当时我来做操作,升级以后,发现osd无法启动,进程在,状态无法更新,当时又回滚回去,就 阅读全文
posted @ 2017-08-21 13:39 武汉-磨渣 阅读(302) 评论(0) 推荐(0)
摘要:前言 关于scrub这块一直想写一篇文章的,这个在很久前,就做过一次测试,当时是看这个scrub到底有多大的影响,当时看到的是磁盘读占很高,启动deep-scrub后会有大量的读,前端可能会出现 slow request,这个是当时测试看到的现象,一个比较简单的处理办法就是直接给scrub关掉了,当 阅读全文
posted @ 2017-08-19 23:08 武汉-磨渣 阅读(781) 评论(0) 推荐(0)
摘要:前言 这个工具我第一次看到是在填坑群里面看到,是由研发-北京-蓝星同学分享的,看到比较有趣,就写一篇相关的记录下用法 火焰图里面也可以定位内存方面的问题,那个是通过一段时间的统计,以一个汇总的方式来查看内存在哪个地方可能出了问题 本篇是另外一个工具,这个工具的好处是有很清晰的图表操作,以及基于时间线 阅读全文
posted @ 2017-08-10 16:55 武汉-磨渣 阅读(825) 评论(0) 推荐(0)
摘要:前言 磁盘损坏对于一个大集群来说,可以说是必然发生的事情,即使再小的概率,磁盘量上去,总会坏那么几块盘,这个时候就会触发内部的修复过程,修复就是让不满足副本要求的PG,恢复到满足的情况 一般是踢掉坏盘和增加新盘会触发这个修复过程,或者对磁盘的权重做了修改,也会触发这个迁移的过程,本篇是用剔除OSD的 阅读全文
posted @ 2017-08-10 14:54 武汉-磨渣 阅读(567) 评论(0) 推荐(0)

上一页 1 2 3 4 5 6 7 ··· 9 下一页