正在检查存储器集群状态

检查IBM Storage Ceph从命令行界面集群。

开始之前

在开始之前,请确保您已满足以下前提条件:
  • 正在运行IBM Storage Ceph簇。

  • 对节点的根级别访问权。

过程

要检查存储集群状态,请使用 cephadm shell 命令登录到 Cephadm shell 并使用下列其中一个命令。
  • 使用 ceph status 命令。
    例如,
    [ceph: root@host01 /]# ceph status
  • 使用 ceph -s 命令。
    [ceph: root@host01 /]# ceph -s
  • 在交互方式下,输入 ceph 并按 Enter 键。
    例如,
    [ceph: root@host01 /]# ceph
    ceph> 状态
      集群:
        id: 499829b4-832f-11eb-8d6d-001a4a000635
        健康:健康警报
                1 个非 cephadm 管理的杂散守护进程
                1/3 莫斯倒下,法定人数 host03,host02
                每个 OSD 的 PG 数量过多(261 > 最大 250)
    
      服务:
        MON: 3 daemons, quorum host03,host02 (age 3d ), out of quorum: host01
        mgr: host01.hdhzwn(active, since 9d ), standbys: host05.eobuuv、 host06.wquwpj
        OSD:12 个 OSD:11 个向上(自 2w 起),11 个向内(自 5w 起)
        rgw: 2 个守护进程处于活动状态 ( test_realm.test_zone.host04.hgbvnq, test_realm.test_zone.host05.yqqilm )
    
      data:
        游泳池 8 个水池,960 页
        对象:414 个对象, 1.0 MiB
        使用情况: 5.7 GiB 已用,214 GiB / 220 GiB 可用
        页码 960 活动+清洁
    
      io:
        客户:41 KiB/s rd,0 B/s wr,41 op/s rd,27 op/s wr
    
    ceph> 健康
    HEALTH_WARN 1 个未由 cephadm 管理的流浪守护进程;1/3 mons 故障,法定人数 host03,host02; 每个 OSD 的 PG 数量过多(261 > 最大 250)
    
    ceph> 监控统计
    e3: 3 mons at, election epoch 6688, leader 1, quorum 1,2 {host01=[v2:10.74.255.0:3300/0,v1:10.74.255.0:6789/0],host02=[v2:10.74.249.253:3300/0,v1:10.74.249.253:6789/0],host03=[v2:10.74.251.164:3300/0,v1:10.74.251.164:6789/0]} host03 host03,host02