随笔分类 - 【20】ceph
摘要:crush \luminous版本的ceph新增了一个功能crush class,这个功能又可以称为磁盘智能分组。因为这个功能就是根据磁盘类型自动的进行属性的关联,然后进行分类。无需手动修改crushmap,极大的减少了人为的操作 ceph中的每个osd设备都可以选择一个class类型与之关联,默认
阅读全文
摘要:拓扑图 通过docker安装ceph集群时,执行命令:yum install ceph-common ,则不需要进入docker容器,运行ceph -s 就可以查询ceph的状态。 集群部署拓扑图: 创建三台虚拟机,本教程采用单侧是CENTOS7版本: 序号 主机名称 主机IP 说明 CENTOS7
阅读全文
摘要:ceph如何查看osd中wal和db的大小 您可以使用ceph daemon osd.ID perf dump命令来检查 WAL/DB 分区是否即将填满及溢出。slow_used_bytes 值显示即将溢出的数据量: [ceph: root@storage01 /]# ceph daemon osd
阅读全文
摘要:PG 一个 Pool 中有多个 PG,具体数量可以通过以下命令查看: ceph osd pool get test pg_num 查看 Pool 中 PG 的分布: ceph pg ls-by-pool test 查看对象的位置: ceph osd map test test-object osdm
阅读全文
摘要:ceph关于rpm包的制作 1. 运行命令: sh make-srpm.sh `git describe` 注意:若执行错误,则执行 unset_http_proxy、 unset_https_proxy。 2. 执行命令: rpm2cpio ceph-14.2.19_1.1-0.el7.cento
阅读全文
摘要:nautilus版本ceph编译 社区已经考虑到Centos下的gcc、cmake版本比较低,不支持C++17,因此在install-deps.sh中处理: yum install centos-release-scl yum install devtoolset-11 scl enable dev
阅读全文
摘要:关于too few PGs per OSD的问题 在一个ceph集群中,操作创建一个pool后,发现ceph的集群处于warning状态,信息如下: 【解法办法:修改pool的pg数量】 1. 调大pg的数量 [root@serverc ~]# ceph osd pool set images pg
阅读全文
摘要:ceph application not enabled 的解决方法 '# ceph -s [root@node01 ~]#ceph -s cluster: id: XXXXXXXXXXXXXXXXXXXXXXXXXXXXX health: HEALTH_WARN application not e
阅读全文
摘要:pool相关命令 列出pool: ceph osd lspools 列举crush rule: ceph osd crush rule ls 更改pool的crush rule: ceph osd pool set [存储池名] crush_rule [CrushRule规则名] ceph osd
阅读全文
摘要:方法一 生成ceph-radosgw服务对应的用户和key: ceph-authtool /etc/ceph/ceph.client.radosgw.keyring -n client.rgw.node1 --gen-key 添加用户访问权限: ceph-authtool -n client.rgw
阅读全文
摘要:一、基础配置 集群拓扑图: 三台环境为centos7,以下配置需要在每台机器上执行。 名称 主机IP 说明 node01 192.168.1.10 mon、mds、rgw、mgr、osd node02 192.168.1.11 mon、mds、rgw、mgr、osd node03 192.168.1
阅读全文
摘要:删除OSD 以删除osd.6为例,查看ceph osd相关信息: ceph -s # 查看Ceph集群状态,确保为HEALTH_OK ceph osd tree # 查看OSD树(osd标号、osd权重等信息) ceph osd df ceph -s # 查看Ceph集群状态,确保为HEALTH_O
阅读全文
摘要:mon部署 1. 为集群生成一个唯一的ID(即fsid)。 uuidgen 2. Create a default data directory (or directories) on the monitor host(s). sudo mkdir /var/lib/ceph/mon/{cluste
阅读全文
摘要:cosbench详解 下载地址: wget https://github.com/intel-cloud/cosbench/releases/download/v0.4.2.c4/0.4.2.c4.zip unzip 0.4.2.c4.zip 执行项目文件下面: ./cli.sh submit co
阅读全文
摘要:ceph osd pool application enable default.rgw.buckets.data rgw ceph osd pool application enable default.rgw.buckets.index rgw ceph osd pool application
阅读全文
摘要:Ceph Object Storage Placement 确认当前已经存储的crush rule: $ ceph osd crush rule dump [ { "rule_id": 0, "rule_name": "replicated_rule", "ruleset": 0, "type":
阅读全文
摘要:ceph fs命令 tyds fs dump ceph fs ls
阅读全文
摘要:CRUSH数据分布算法 placement rule Cluster Map反映了存储系统层级的物理拓扑结构,placement Rules决定了了一个PG的对象副本如何选择的规则,通过这些自己设定的规则,用户可以设定副本在集群中的分布,其定义格式如下: rule <rulename> { rule
阅读全文
摘要:设置日志级别 查询配置命令: ceph --admin-daemon /var/run/ceph/ceph-mon.node02.asok help 输出如下: 查看代码 [root@node02 ~]# ceph --admin-daemon /var/run/ceph/ceph-mon.node
阅读全文
摘要:s3cmd、aws的使用 aws --endpoint=http://<ip:port> s3api get-object --bucket=<bucketname> --key=<objectname> <filename> 在/root目录下,创建.s3cfg文件: [default] acce
阅读全文

浙公网安备 33010602011771号