随笔分类 -  存储相关

上一页 1 ··· 3 4 5 6 7 8 9 下一页
摘要:前言 之前有写过一篇删除OSD的正确方式,里面只是简单的讲了下删除的方式怎样能减少迁移量,本篇属于一个扩展,讲述了 Ceph 运维当中经常出现的坏盘提换盘的步骤的优化 基础环境两台主机每台主机8个 OSD,一共 16 个 OSD,副本设置为2,PG 数设置为800,计算下来平均每个 OSD 上的 P 阅读全文
posted @ 2016-09-19 17:41 武汉-磨渣 阅读(477) 评论(0) 推荐(0)
摘要:前言 本篇介绍了centos7下jewel版本的radosgw配置,这里的配置是指将服务能够正常起来,不涉及到S3的配置,以及其他的更多的配置,radosgw后面的gw就是gateway的意思,也就是我们说的网关的意思,本篇中所提及的实例也就是网关的意思,说实例是将每个单独的网关更细化一点的说法 很 阅读全文
posted @ 2016-09-12 17:40 武汉-磨渣 阅读(340) 评论(0) 推荐(0)
摘要:前言 ceph的rbd一直有个问题就是无法清楚的知道这个分配的空间里面到底使用了多少,这个在Jewel里面提供了一个新的接口去查询,对于老版本来说可能同样有这个需求,本篇将详细介绍如何解决这个问题 查询的各种方法 目前已知的有三种方法 1、使用rbd du查询(Jewel才支持) 2、使用rbd d 阅读全文
posted @ 2016-09-08 17:39 武汉-磨渣 阅读(1062) 评论(0) 推荐(0)
摘要:前言 copyset运用好能带来什么好处 降低故障情况下的数据丢失概率(增加可用性) 降低资源占用,从而降低负载 copyset的概念 首先我们要理解copyset的概念,用通俗的话说就是,包含一个数据的所有副本的节点,也就是一个copyset损坏的情况下,数据就是全丢的 如上图所示,这里的copy 阅读全文
posted @ 2016-09-06 17:35 武汉-磨渣 阅读(573) 评论(0) 推荐(0)
摘要:前言 这个工具最开始是从sebastien的blog里面看到的,这个是 Gregory Charot(工具的作者)写的,通常我们在获取一个ceph的信息的时候,需要敲一连串的命令去获得自己需要的信息,可能需要一大堆的解析才能完成,而经常出现的是,使用了后,下次使用的时候,又要重来一遍,所以作者把这些 阅读全文
posted @ 2016-08-28 17:33 武汉-磨渣 阅读(155) 评论(0) 推荐(0)
摘要:背景 一般情况下,我们的IT系统都会有相关的告警的处理,有的是邮件,有的是短信,这些都能很方便的获得一些有用的信息 在某些时候我们没有这样的系统,而自己又需要定期的获取一些信息的时候,配置一个邮件发送是很有用的 配置方法 网上的大部分的方法使用的是sendmail的发送方法,这个地方我们只需要简单的 阅读全文
posted @ 2016-08-19 17:32 武汉-磨渣 阅读(107) 评论(0) 推荐(0)
摘要:定位问题 [root@lab8106 ~]# ceph -s cluster fa7ec1a1-662a-4ba3-b478-7cb570482b62 health HEALTH_WARN pool rbd has many more objects per pg than average (too 阅读全文
posted @ 2016-07-27 17:31 武汉-磨渣 阅读(1093) 评论(0) 推荐(0)
摘要:很多人会提出这样的问题: - 能不能够将 Ceph journal 分区从一个磁盘替换到另一个磁盘? - 怎样替换 Ceph 的 journal 分区? 有两种方法来修改Ceph的journal: - 创建一个journal分区,在上面创建一个新的journal - 转移已经存在的journal分区 阅读全文
posted @ 2016-07-26 17:30 武汉-磨渣 阅读(445) 评论(0) 推荐(0)
摘要:问题 有可能你在进行 Ceph 文件系统挂载的时候出现下面的提示: modprobe: FATAL: Module ceph not found. mount.ceph: modprobe failed, exit status 1 mount error: ceph filesystem not 阅读全文
posted @ 2016-07-24 17:29 武汉-磨渣 阅读(2450) 评论(0) 推荐(0)
摘要:之前有在论坛写了怎么用 yum 安装 ceph,但是看到ceph社区的群里还是有人经常用 ceph-deploy 进行安装,然后会出现各种不可控的情况,虽然不建议用ceph-deploy安装,但是既然想用,那就研究下怎么用好 首先机器需要安装 ceph-deploy 这个工具,机器上应该安装好 ep 阅读全文
posted @ 2016-07-14 17:28 武汉-磨渣 阅读(1093) 评论(0) 推荐(0)
摘要:这个已经很久之前已经实践成功了,现在正好有时间就来写一写,目前并没有在其他地方有类似的分享,虽然我们自己的业务并没有涉及到云计算的场景,之前还是对rbd镜像这一块做了一些基本的了解,因为一直比较关注故障恢复这一块,东西并不难,总之一切不要等到出了问题再去想办法,提前准备总是好的,如果你有集群的问题, 阅读全文
posted @ 2016-07-02 17:27 武汉-磨渣 阅读(538) 评论(0) 推荐(0)
摘要:分区提示未对齐 [root@lab8106 ceph]# parted /dev/sdd GNU Parted 3.1 Using /dev/sdd Welcome to GNU Parted! Type 'help' to view a list of commands. (parted) p M 阅读全文
posted @ 2016-06-24 17:26 武汉-磨渣 阅读(1609) 评论(0) 推荐(0)
摘要:前言 快照的功能一般是基于时间点做一个标记,然后在某些需要的时候,将状态恢复到标记的那个点,这个有一个前提是底层的东西没用破坏,举个简单的例子,Vmware 里面对虚拟机做了一个快照,然后做了一些系统的操作,想恢复快照,前提是存储快照的存储系统没用破坏,一旦破坏了是无法恢复的 ceph里面也有快照的 阅读全文
posted @ 2016-06-22 17:24 武汉-磨渣 阅读(372) 评论(0) 推荐(0)
摘要:功能介绍 关于rgw实现nfs接口这个,刚接触的人可能并不清楚这个是个什么样的服务架构,rgw是ceph里面的对象存储接口,而nfs则是纯正的网络文件系统接口,这二者如何结合在一起,关于这个,有几个相关的链接供大家了解 ceph官方的RGW_NFS项目规划 麦子迈关于RGW_NFS的文章 之所以这个 阅读全文
posted @ 2016-06-19 17:22 武汉-磨渣 阅读(693) 评论(0) 推荐(0)
摘要:我理解的CPU 目前对cpu的了解停留在这个水平 查看CPU型号: cat /proc/cpuinfo |grep model |tail -n 1 model name : Intel(R) Xeon(R) CPU E5-2620 v2 @ 2.10GHz 查看有多少processor: cat 阅读全文
posted @ 2016-06-13 17:20 武汉-磨渣 阅读(427) 评论(0) 推荐(0)
摘要:在jewel版本下默认开启了rbd的一些属性 [root@lab8106 ~]# ceph --show-config|grep rbd|grep features rbd_default_features = 61 RBD属性表: 61的意思是上面图中的bit码相加得到的值 对rbd进行内核的ma 阅读全文
posted @ 2016-06-07 17:18 武汉-磨渣 阅读(1507) 评论(0) 推荐(0)
摘要:ceph是目前开源分布式存储里面最好的一个,但是在高负载下会有很多异常的情况会发生,有些问题无法完全避免,但是可以进行一定的控制,比如:在虚拟化场景下,重启osd会让虚拟机挂起的情况 重新启动osd会给这个osd进程所在的磁盘带来额外的负载,随着前面业务的需求的增长,会增加对存储的I/O的需求,虽然 阅读全文
posted @ 2016-06-07 17:17 武汉-磨渣 阅读(338) 评论(0) 推荐(0)
摘要:前情介绍 SPDK SPDK的全称为Storage Performance Development Kit ,是Intel发起的一个开源驱动项目,这个是一个开发套件,可以让应用程序在用户态去访问存储资源,具体做能做什么可以去官网看一下 SPDK官网 NVME NVMe其实与AHCI一样都是逻辑设备接 阅读全文
posted @ 2016-06-04 17:14 武汉-磨渣 阅读(2090) 评论(0) 推荐(0)
摘要:如果是在做ceph的配置,我们会经常遇到这几个问题 问:ceph需要配置几个mon 答:配置一个可以,但是坏了一个就不行了,需要配置只是三个mon,并且需要是奇数个 问:ceph的mon能跟osd放在一起么,需要配置很好么? 答:能跟放在一起,但是建议在环境允许的情况下一定独立机器,并且mon的配置 阅读全文
posted @ 2016-05-26 17:12 武汉-磨渣 阅读(431) 评论(0) 推荐(0)
摘要:jewel版本新增加了一个驱动NBD,允许librbd实现一个内核级别的rbd NBD相比较于kernel rbd: rbd-ko是根据内核主线走的,升级kernel rbd需要升级到相应的内核,改动太大 rbd-ko的开发要慢于librbd,需要很多的时间才能追赶上librbd rbd-nbd是通 阅读全文
posted @ 2016-05-19 17:11 武汉-磨渣 阅读(666) 评论(0) 推荐(0)

上一页 1 ··· 3 4 5 6 7 8 9 下一页