随笔分类 - Ceph
摘要:池是用于存储对象的逻辑分区。 当您首次部署集群而不创建池时,Ceph 使用默认池来存储数据。池为您提供: 弹性:您可以设置允许多少 OSD 失败而不会丢失数据。对于复制池,它是对象的所需副本/副本数。典型配置存储一个对象和一个附加副本(即size = 2),但您可以确定副本/副本的数量。对于纠删码池
阅读全文
posted @ 2022-02-28 10:03
Varden
摘要:Ceph 在 RADOS 集群中动态存储、复制和重新平衡数据对象。由于许多不同的用户在无数 OSD 上出于不同目的将对象存储在不同的池中,因此 Ceph 操作需要一些数据放置规划。Ceph 中主要的数据放置规划概念包括: Pools(池): Ceph 将数据存储在池中,池是用于存储对象的逻辑组。池管
阅读全文
posted @ 2022-02-28 08:32
Varden
摘要:有时,归置组可能会变得“不一致”。要将归置组返回到 active+clean 状态,您必须首先确定哪些归置组变得不一致,然后对其运行“pg repair”命令。此页面包含用于诊断归置组的命令和用于修复已变得不一致的归置组的命令。 #用于诊断归置组问题的命令 本节中的命令提供了各种诊断损坏的归置组的方
阅读全文
posted @ 2022-02-28 08:21
Varden
摘要:高可用性和高可靠性需要一种容错方法来管理硬件和软件问题。Ceph 没有单点故障,并且可以以“降级”模式为数据请求提供服务。Ceph 的数据放置引入了一个间接层,以确保数据不会直接绑定到特定的 OSD 地址。这意味着跟踪系统故障需要找到问题根源所在的归置组和底层 OSD。 提示 集群的某一部分出现故障
阅读全文
posted @ 2022-02-27 21:32
Varden
摘要:一旦你有一个正在运行的集群,你就可以使用该ceph工具来监控你的集群。监控集群通常包括检查 OSD 状态、监控状态、归置组状态和元数据服务器状态。 使用命令行 交互模式 要在交互模式下运行ceph工具,请在不带参数的命令行中键入ceph。例如: ceph ceph> health ceph> sta
阅读全文
posted @ 2022-02-27 11:17
Varden
摘要:参考:https://docs.ceph.com/en/pacific/rados/operations/health-checks/ 概述 Ceph 集群可以发出一组有限的可能的健康消息——这些消息被定义为具有唯一标识符的健康检查。 标识符是一个简洁的伪人类可读(即像变量名)字符串。它旨在使工具(
阅读全文
posted @ 2022-02-27 09:06
Varden
摘要:参考:https://docs.ceph.com/en/pacific/rados/operations/user-management/ 本文档描述Ceph 客户端用户,以及他们使用Ceph 存储集群的身份验证和授权。用户是个人或系统参与者,例如应用程序,它们使用 Ceph 客户端与 Ceph 存
阅读全文
posted @ 2022-02-25 14:51
Varden
摘要:参考:https://docs.ceph.com/en/latest/rados/configuration/bluestore-config-ref/ 设备 BlueStore 管理一个、两个或(在某些情况下)三个存储设备。 在最简单的情况下,BlueStore 使用单个(主)存储设备。存储设备通
阅读全文
posted @ 2022-02-23 09:44
Varden
摘要:临时规避方案 增大 osd_max_write_size 配置阈值,重启cephfs元数据服务进程。 故障预防 排查出异常客户端并重新挂载: rados -p fs_metadata_pool listomapvals mds0_sessionmap 找到异常客户端(正常客户端value只有几百字节
阅读全文
posted @ 2021-10-18 14:17
Varden
摘要:参考:https://docs.ceph.com/en/octopus/install/ 1. 安装 CEPH 方法介绍 推荐方法 Cephadm使用容器和 systemd 安装和管理 Ceph 集群,并与 CLI 和仪表板 GUI 紧密集成。 cephadm 仅支持 Octopus 和更新版本。
阅读全文
posted @ 2021-09-15 15:02
Varden
摘要:服务器配置要求 CPU 每个 Ceph 服务分配一个 CPU 内核。 内存 对于大约 1 TiB 的数据,通常 OSD 将使用1 GiB 的内存。 Bluestore 后端守护进程默认需要 3-5 GiB 内存 (可调整)。 网络 建议使用至少 10 GbE 或更高的网络带宽 专供 Ceph 使用。
阅读全文
posted @ 2021-09-07 08:24
Varden
摘要:参考:https://blog.51cto.com/yuweibing/2285553 使用外部ceph集群里创建的存储池 ceph1,登陆web管理界面,如下图: 注意,ceph-external这个pool就是创建的外部ceph存储的pool。 创建ceph认证文件: 在任意一个节点上运行: m
阅读全文
posted @ 2021-08-31 17:03
Varden
摘要:参考:https://blog.51cto.com/u_14742102/3499271 九、一些常用的Ceph/OSD命令 1)常见命令查看Ceph/OSD状态 root@pve-node1:~# ceph df root@pve-node1:~# ceph osd df root@pve-nod
阅读全文
posted @ 2021-08-31 14:54
Varden
摘要:参考:https://blog.51cto.com/u_14742102/3499271 八、OSD磁盘故障排查案例 第一步:Ceph的监控界面发现OSD掉线,但是并没有产生告警 本项目在客户现场稳定运行了半年,基本上没有出现过故障,这次去客户现场巡查,在Ceph的WEB UI监控界面中,发现了Ce
阅读全文
posted @ 2021-08-31 14:43
Varden
摘要:参考:https://blog.51cto.com/u_14742102/3499271 七、Ceph分布式存储 Ceph以其先进的去中心化设计,成为了分布式块存储领域的佼佼者,它可以将多台服务器中的硬盘聚合成一个集群,对外可提供文件存储、块存储、对象存储等多种形式,Ceph的另一个特点是数据采用多
阅读全文
posted @ 2021-08-31 13:59
Varden
摘要:参考:https://blog.csdn.net/hanziqing0630/article/details/114262035 一、Proxmox Virtual Environment介绍 Proxmox VE 是用于企业虚拟化的开源服务器管理平台。它在单个平台上紧密集成了KVM虚拟机管理程序和
阅读全文
posted @ 2021-08-28 16:57
Varden
摘要:#寻找block的请求 ceph health detail #查询osd对应主机 ceph osd tree #重启osd /etc/init.d/ceph stop osd.16 /etc/init.d/ceph start osd.16 系统会对该 osd 执行 recovery 操作, re
阅读全文
posted @ 2020-11-04 10:16
Varden
摘要:filestore 需要周期性地静默写入、同步文件系统,这创建了一个提交点,然后就能释放相应的日志条目了。较大的同步频率可减小执行同步的时间及保存在日志里的数据量;较小的频率使得后端的文件系统能优化归置并较小的数据和元数据写入,因此可能使同步更有效。 #相关选项: filestore max syn
阅读全文
posted @ 2020-11-04 09:28
Varden
摘要:#PG_NUM 用此命令创建存储池时: ceph osd pool create {pool-name} pg_num 确定 pg_num 取值是强制性的,因为不能自动计算。下面是几个常用的值: 少于 5 个 OSD 时可把 pg_num 设置为 128; OSD 数量在 5 到 10 个时,可把
阅读全文
posted @ 2020-11-04 09:19
Varden
摘要:默认情况下, Ceph 觉得你会把 OSD 日志存储于下列路径: /var/lib/ceph/osd/$cluster-$id/journal 未做性能优化时, Ceph 会把日志存储在与 OSD 数据相同的硬盘上。追求高性能的 OSD 可用单独的硬盘存储日志数据,如固态硬盘能提供高性能日志。 os
阅读全文
posted @ 2020-11-04 09:13
Varden