摘要:标签(空格分隔): ceph,ceph实验,ceph源码 通过博客 [源码编译安装ceph(aarch64架构)][1] 成功安装ceph之后,之后可以运行一个测试集群进行实验 1,进入安装构建目录: 2,进行make: 3,启动测试集群: 4,查看集群状态: 可以看到一些错误和警告,可以不必理会。
阅读全文
摘要:标签(空格分隔): ceph,ceph安装,ceph运维 centos7系统,aarch64架构下安装最新版本的ceph(13.0.0),x86架构的环境无需修改脚本即可。 一,物理环境: 内核版本: 可以看到内核版本是aarch64 操作系统: 可以看到操作系统是arm架构的cenots7 cpu
阅读全文
摘要:标签(空格分隔): ceph源码安装,git 问题描述: 源码安装ceph,克隆代码时提示如下错误: 解决办法: 首先确认是否可以访问外网: 如果可以访问外网,把 git: 修改为 http: 即可: 参考文档: [fatal: read error: Connection reset by pee
阅读全文
摘要:标签(空格分隔): ceph,ceph运维,pg 集群环境: 集群当前布局: 为每个主机再添加一个osd: 为了重现too few pgs的错误,同时为了创建指定数据位置osd,下面创建bluestore的osd,数据存储在/dev/sdd1上。在每个主机上执行下面的步骤: 第一步:创建bluest
阅读全文
摘要:标签(空格分隔):ceph,ceph运维,osd故障 集群环境: 问题描述: 在使用[批量删除osd的shell脚本][1]删除所有的osd时,提示:Error EBUSY: osd.0 is still up; must be down before removal.查看集群架构: 很明显就是需要
阅读全文
摘要:标签(空格分隔): ceph,ceph实验,crushmap luminous版本的ceph新增了一个功能crush class,这个功能又可以称为磁盘智能分组。因为这个功能就是根据磁盘类型自动的进行属性的关联,然后进行分类。无需手动修改crushmap,极大的减少了人为的操作。以前的操作有多麻烦可
阅读全文
摘要:标签(空格分隔): ceph,ceph实验,crushmap CRUSH的全称是Controlled Replication Under Scalable Hashing,是ceph数据存储的分布式选择算法,也是ceph存储引擎的核心。ceph的客户端在往集群里读写数据时,动态计算数据的存储位置。这
阅读全文
摘要:标签(空格分隔): ceph,ceph运维,rbd 解决思路: 在Ceph集群日常运维中,管理员可能会遇到有的image删除不了的情况: 1) 由于image下有快照信息,只需要先将快照信息清除,然后再删除该image即可 2) 该image仍旧被一个客户端在访问,具体表现为该image中有watc
阅读全文
摘要:标签: ceph,ceph实验,rbd cluster相关环境: 比如需要恢复所有前缀为 rbd_data.1041643c9869 的块设备,该块设备名为foo,文件系统类型为xfs,大小1G,挂载到了/root/foocon/目录下,并有三个文件: 恢复该foo块设备需要进行下面的操作 1. 从
阅读全文
摘要:标签(空格分隔): ceph,ceph实验 我们通过查看index为0x01的小4M文件,得知了file2.txt这个文件内容在这个4M内保存的位置为0x9000,因为0x01前面还有一个4M文件即0x00,那么这个file2.txt在整个RBD内的偏移量为:4MB+0x9000B=0x400,00
阅读全文