正在检查存储器集群状态
检查IBM Storage Ceph从命令行界面集群。
开始之前
正在运行IBM Storage Ceph簇。
对节点的根级别访问权。
过程
要检查存储集群状态,请使用 cephadm shell 命令登录到 Cephadm shell 并使用下列其中一个命令。
- 使用 ceph status 命令。例如,
[ceph: root@host01 /]# ceph status
- 使用 ceph -s 命令。
[ceph: root@host01 /]# ceph -s
- 在交互方式下,输入 ceph 并按 Enter 键。例如,
[ceph: root@host01 /]# ceph ceph> 状态 集群: id: 499829b4-832f-11eb-8d6d-001a4a000635 健康:健康警报 1 个非 cephadm 管理的杂散守护进程 1/3 莫斯倒下,法定人数 host03,host02 每个 OSD 的 PG 数量过多(261 > 最大 250) 服务: MON: 3 daemons, quorum host03,host02 (age 3d ), out of quorum: host01 mgr: host01.hdhzwn(active, since 9d ), standbys: host05.eobuuv、 host06.wquwpj OSD:12 个 OSD:11 个向上(自 2w 起),11 个向内(自 5w 起) rgw: 2 个守护进程处于活动状态 ( test_realm.test_zone.host04.hgbvnq, test_realm.test_zone.host05.yqqilm ) data: 游泳池 8 个水池,960 页 对象:414 个对象, 1.0 MiB 使用情况: 5.7 GiB 已用,214 GiB / 220 GiB 可用 页码 960 活动+清洁 io: 客户:41 KiB/s rd,0 B/s wr,41 op/s rd,27 op/s wr ceph> 健康 HEALTH_WARN 1 个未由 cephadm 管理的流浪守护进程;1/3 mons 故障,法定人数 host03,host02; 每个 OSD 的 PG 数量过多(261 > 最大 250) ceph> 监控统计 e3: 3 mons at, election epoch 6688, leader 1, quorum 1,2 {host01=[v2:10.74.255.0:3300/0,v1:10.74.255.0:6789/0],host02=[v2:10.74.249.253:3300/0,v1:10.74.249.253:6789/0],host03=[v2:10.74.251.164:3300/0,v1:10.74.251.164:6789/0]} host03 host03,host02