随笔分类 -  Ceph

上一页 1 ··· 3 4 5 6 7
摘要:#部署配置 使用ceph-deploy部署预示着一个局限性,即只能在一主机上安装一个监视器。 不建议把监视器和 OSD 置于同一主机上。 考虑到高可用性,生产集群应该至少有 3 个监视器。 大多数监视器的比例必须像:1个在运行、3之2在运行、4之3在运行、5之3在运行、6之4在运行等等。 确保你增加 阅读全文
posted @ 2020-11-04 09:03 Varden
摘要:#dd:磁盘读写性能测试 语法: dd if=/dev/zero of=/root/testfile bs=1G count=1 oflag=direct/dsync/sync #iperf3:网络带宽性能测试 #rados bench:Ceph 自带的 rados 性能测试工具 语法: rados 阅读全文
posted @ 2020-11-03 16:10 Varden
摘要:Ceph 块设备最常见的用法之一是作为虚拟机的块设备映像。 例如,用户可创建一个安装、配置好了操作系统和相关软件的“黄金标准”映像,然后对此映像做快照,最后再克隆此快照(通常很多次)。 能够实现快照的写时复制克隆意味着 Ceph 可以快速地为虚拟机提供块设备映像,因为客户端每次启动一个新虚拟机时不必 阅读全文
posted @ 2020-11-03 11:50 Varden
摘要:#环境说明 Ubuntu 16.04 LTS Ceph 10.2.x(Jewel) #Libvirt配置详解 确认宿主机是否支持KVM虚拟化: # egrep '(vmx|svm)' --color /proc/cpuinfo 安装libvirt相关工具包: # apt-get install -y 阅读全文
posted @ 2020-11-03 10:37 Varden
摘要:#快照 创建快照: # rbd snap create rbd/test@snap-test 查看快照: # rbd snap ls rbd/test SNAPID NAME SIZE 4 snap-test 2048 MB 快照回滚: # rbd snap rollback rbd/test@sn 阅读全文
posted @ 2020-11-03 09:09 Varden
摘要:#环境说明 Ubuntu 16.04 LTS Ceph Jewel(10.2.x) #获取软件 # git clone https://github.com/Crapworks/ceph-dash.git 修改模板(可选): ceph-dash/app/templates/status.html # 阅读全文
posted @ 2020-11-02 17:20 Varden
摘要:#MON 添加mon节点: ceph-deploy mon create {host-name [host-name]...} Note:在一主机上新增监视器时,如果它不是由 ceph-deploy new 命令所定义的,那就必须把 public network 加入 ceph.conf 配置文件。 阅读全文
posted @ 2020-11-02 17:01 Varden
摘要:#块设备简介 Ceph 块设备把一个设备映像条带化到集群内的多个对象,其中各对象映射到一个归置组并分布出去,这些归置组会分散到整个集群的 ceph-osd 守护进程上。条带化会使 RBD 块设备比单台服务器运行的更好! 精简的、可快照的 Ceph 块设备对虚拟化和云计算很有吸引力。 在虚拟机场景中, 阅读全文
posted @ 2020-11-02 15:12 Varden
摘要:#1. 把文件系统挂载为用户空间文件系统 Debian/Ubuntu安装软件: # apt-get -y install ceph-fuse ceph-common 准备集群配置文件和密钥文件: /etc/ceph/ceph.client.admin.keyring /etc/ceph/ceph.c 阅读全文
posted @ 2020-11-02 14:47 Varden
摘要:#以下步骤在管理节点操作 修改/etc/hosts文件添加客户端host条目,例如: 192.168.0.10 client 修改ssh配置文件默认使用admin用户登录客户端,例如: $ vim ~/.ssh/config ... Host client Hostname client User 阅读全文
posted @ 2020-11-02 14:22 Varden
摘要:#获取监控脚本及配置文件 $ sudo git clone https://github.com/thelan/ceph-zabbix.git $ cd ceph-zabbix $ sudo cp ceph-status.sh /opt/ $ sudo cp zabbix_agent_ceph_pl 阅读全文
posted @ 2020-10-30 16:53 Varden
摘要:Ceph集群定时Scrub OSD的Scrub默认策略是每天到每周进行一次,时间区域默认为全天。Deep-Scrub默认策略为每周一次。 场景:晚上22点到第二天7点进行Scrub ceph tell osd.* injectargs "--osd-scrub-begin-hour 22" ceph 阅读全文
posted @ 2020-10-30 16:10 Varden
摘要:#系统内核 具有大量OSD(例如,> 20)的主机可能产生大量线程,尤其是在恢复和重新平衡期间。 许多Linux内核默认为相对较小的最大线程数(例如,32k)。 如果在具有大量OSD的主机上启动OSD时遇到问题,请考虑设置kernel.pid_max更多线程。理论最大值为4,194,303个线程。 阅读全文
posted @ 2020-10-30 15:46 Varden
摘要:#创建存储池 ceph osd pool create cephfs_metadata 64 64 ceph osd pool create cephfs_data 64 64 ceph osd pool create rbd 64 64 #创建文件系统 ceph fs new cephfs cep 阅读全文
posted @ 2020-10-30 14:35 Varden
摘要:#集群运行图介绍 Ceph 依赖于 Ceph 客户端和 OSD ,因为它们知道集群的拓扑,这个拓扑由 5 张图共同描述,统称为“集群运行图”: Montior Map: 包含集群的 fsid 、位置、名字、地址和端口,也包括当前版本、创建时间、最近修改时间。要查看监视器图,用 ceph mon du 阅读全文
posted @ 2020-10-30 14:00 Varden
摘要:#部署环境说明 ``` debian stretch(9.x) ceph luminous(v12.2.x) (生产环境建议安装操作系统自带的稳定版本!) ``` #集群节点 ``` ceph1 192.168.22.11 ceph2 192.168.22.12 ``` #网络配置 ``` # vi 阅读全文
posted @ 2020-10-30 11:39 Varden

上一页 1 ··· 3 4 5 6 7