随笔分类 -  存储相关

摘要:前言 这个问题是不久前在ceph社区群里看到的,创建image的时候,当时的报错如下: 2016-12-13 23:13:10.266865 7efbfb7fe700 -1 librbdimageCreateRequest: pool not configured for self-managed 阅读全文
posted @ 2016-12-14 18:13 武汉-磨渣 阅读(388) 评论(0) 推荐(0)
摘要:前言 Cephfs的快照功能在官网都很少提及,因为即使开发了很多年,但是由于cephfs的复杂性,功能一直没能达到稳定,这里,只是介绍一下这个功能,怎么使用,并且建议不要在生产中使用,因为搞不好是会丢数据的 功能介绍 首先这个功能是默认关闭的,所以需要开启 [root@lab8106 ~]# cep 阅读全文
posted @ 2016-12-13 18:12 武汉-磨渣 阅读(787) 评论(0) 推荐(0)
摘要:前言 之前写过一篇关于查询OSD的运行的CPU的情况的分享,本篇是讲的获取内存占用的,代码包括两种输出,一种是直接的表格,一种是可以方便解析的json 代码 直接上代码,python才用不久,所以可能代码实现比较低级,主要是看实现的方法 #!/usr/bin/env python # -*- cod 阅读全文
posted @ 2016-12-08 18:12 武汉-磨渣 阅读(733) 评论(0) 推荐(0)
摘要:Ceph和OpenStack是一个非常有用和非常受欢迎的组合。 不过,部署Ceph / OpenStack经常会有一些容易避免的缺点 - 我们将帮助你解决它们 使用 show_image_direct_url and the Glance v2 API 使用ceph的RBD(RADOS Block 阅读全文
posted @ 2016-11-29 18:09 武汉-磨渣 阅读(137) 评论(0) 推荐(0)
摘要:前言 fio是一个适应性非常强的软件,基本上能够模拟所有的IO请求,是目前最全面的一款测试软件,之前在看德国电信的一篇分享的时候,里面就提到了,如果需要测试存储性能,尽量只用一款软件,这样从上层测试到底层去,才能更好的去比较差别 fio对于ceph来说,可以测试文件系统,基于文件系统之上测试,可以测 阅读全文
posted @ 2016-11-23 17:59 武汉-磨渣 阅读(344) 评论(0) 推荐(0)
摘要:前言 在看CPU相关的文章的时候,想起来之前有文章讨论是否要做CPU绑定,这个有说绑定的也有说不绑定的,然后就想到一个问题,有去观测这些OSD到底运行在哪些CPU上面么,有问题就好解决了,现在就是要查下机器上的OSD运行在哪些CPU上 代码 这里直接上代码了,最近学习python在,就用python 阅读全文
posted @ 2016-11-16 17:57 武汉-磨渣 阅读(227) 评论(0) 推荐(0)
摘要:前言 通过yum安装指定的rpm包,这个一般是 yum --showduplicates list ceph | expand ,然后去通过yum安装指定的版本即可,这个在hammer下是没有问题的,但是在Jewel下进行安装的时候却出现了问题,我们来看下怎么解决这个问题的 实践过程 我们需要安装 阅读全文
posted @ 2016-11-14 17:57 武汉-磨渣 阅读(276) 评论(0) 推荐(0)
摘要:前言 在某些场景下Ceph集群会出现stale的情况,也就是ceph集群PG的僵死状态,这个状态实际上是无法处理新的请求了,新的请求过来只会block,那么我们如何去恢复环境 实践过程 首先模拟stale环境,这个比较好模拟 设置副本2,然后同时关闭两个OSD(不同故障域上),然后删除这两个OSD 阅读全文
posted @ 2016-11-14 17:55 武汉-磨渣 阅读(386) 评论(0) 推荐(0)
摘要:一、前言 本章很简单,就是预估集群恢复的时间,这个地方是简单的通过计算来预估需要恢复的实际,动态的显示 二、代码 #!/usr/bin/env python # -*- coding: UTF-8 -*- import os import sys import commands import jso 阅读全文
posted @ 2016-11-10 17:54 武汉-磨渣 阅读(443) 评论(0) 推荐(1)
摘要:这是一篇分享文,作者因为最近想深入研究下ceph的cache pool,作者写的文章非常的好,这里先直接翻译这篇文章,然后再加入我自己的相关数据 blog原文 作者想启动blog写下自己的Openstack和Ceph的相关经验,第一个话题就选择了 Ceph cache tiering , 作者的使用 阅读全文
posted @ 2016-11-07 17:51 武汉-磨渣 阅读(1006) 评论(0) 推荐(0)
摘要:ceph Vol 45 Issue 1 1.unfound objects blocking cluster, need help! Hi, I have a production cluster on which 1 OSD on a failing disk was slowing the wh 阅读全文
posted @ 2016-11-04 17:50 武汉-磨渣 阅读(626) 评论(0) 推荐(0)
摘要:前言 部署集群的时候权重是默认生成的,这个是根据磁盘大小分配的,我们有的时候需要去修改一下这个默认权重 修改 如果统一的初始值,那么直接添加参数即可 osd_crush_initial_weight 如果想自己添加算法,那么就根据下面的去做就可以了 centos+jewel 修改: /usr/lib 阅读全文
posted @ 2016-11-02 17:49 武汉-磨渣 阅读(265) 评论(0) 推荐(0)
摘要:ceph Vol 45 Issue 2 CephFS: No space left on device After upgrading to 10.2.3 we frequently see messages like 'rm: cannot remove '...': No space left 阅读全文
posted @ 2016-11-01 17:53 武汉-磨渣 阅读(419) 评论(0) 推荐(0)
摘要:前言 docker是一个管理工具,在操作系统之上提供了一个新的独立轻环境,好处是本地提供了一个基础镜像,然后基于镜像再运行环境,也可以把环境重新打包为镜像,管理起来类似于git,感觉非常的方便,并且能够做到一处提交,处处可以取到相同的环境,大大的减少了因为环境偏差造成的系统不稳定 目前有不少生成环境 阅读全文
posted @ 2016-10-19 17:47 武汉-磨渣 阅读(375) 评论(0) 推荐(0)
摘要:前言 首先来一段英文关于PG和PGP区别的解释: PG = Placement Group PGP = Placement Group for Placement purpose pg_num = number of placement groups mapped to an OSD When pg 阅读全文
posted @ 2016-10-19 17:46 武汉-磨渣 阅读(288) 评论(0) 推荐(0)
摘要:前言 对于IPV6实在是非常的陌生,所以本篇开始会讲一下最基本的网络配置,首先让网络能通起来,最开始就是因为不熟悉IPV6,而直接使用了link local地址,造成了mon部署的时候进程无法绑定到IP,从而端口没有启动,这个是在ceph社区群友 ceph-长沙-柠檬 同学的帮助下才发现问题的 IP 阅读全文
posted @ 2016-10-17 17:46 武汉-磨渣 阅读(446) 评论(0) 推荐(0)
摘要:前言 之前跟一个朋友沟通一个其他的问题的时候,发现了有一个参数 mon osd down out subtree limit 一直没有接触到,看了一下这个参数还是很有作用的,本篇将讲述这个参数的作用和使用的场景 测试环境准备 首先配置一个集群环境,配置基本参数 mon_osd_down_out_in 阅读全文
posted @ 2016-10-13 17:45 武汉-磨渣 阅读(675) 评论(0) 推荐(0)
摘要:前言 这里有个条件,系统环境是Centos 7 ,Ceph 的版本为Jewel版本,因为这个组合下是由systemctl来进行服务控制的,所以需要做稍微的改动即可实现 准备工作 部署mon的时候需要修改这个几个文件 /usr/lib/systemd/system/ceph-mon@.service 阅读全文
posted @ 2016-10-12 17:45 武汉-磨渣 阅读(459) 评论(0) 推荐(0)
摘要:前言 如果你是新手,应该出现过敲盘符的时候,敲错的情况,有些操作可能没什么问题,查询类的操作都没问题,但是写入的情况,就可能比较麻烦了,当然老手也可能有误操作,本篇将讲述在误操作把分区表给弄丢了的情况,来看看我们应该如何恢复 实践过程 我们现在有一个正常的集群,我们假设这些分区都是一致的,用的是默认 阅读全文
posted @ 2016-09-24 17:42 武汉-磨渣 阅读(367) 评论(0) 推荐(0)
摘要:关于mon的数据的问题,一般正常情况下都是配置的3个mon的,但是还是有人会担心 Mon 万一三个同时都挂掉了怎么办,那么集群所有的数据是不是都丢了,关于后台真实数据恢复,有去后台取对象,然后一个个拼接起来的方案,这个是确定可以成功的,但是这个方法对于生产的集群耗时巨大,并且需要导出数据,然后又配置 阅读全文
posted @ 2016-09-20 17:41 武汉-磨渣 阅读(987) 评论(0) 推荐(0)