如何解决 health HEALTH_WARN 64 pgs degraded 64 pgs stale 64 pgs stuck degraded 64 pgs stuck inactive 64 pgs stuck stale 64 pgs stuck unclean 64 pgs stuck undersized 64 pgs undersized 1/1 in osds are down monmap e1: 1 mons at {ceph-node1=192.168.15.101:6789/0} election epoch 1, quorum 0 ceph-node1 osdmap e6: 1 osds: 0 up, 1 in pgmap v14: 64 pgs, 1 pools, 0 bytes data, 0 objects 12169 MB used, 35927 MB / 48096 MB avail 64 stale+undersized+degraded+peered
时间: 2024-02-10 08:17:17 浏览: 111
这个错误信息表明Ceph集群的健康状况被评为黄色,有一些PGs处于降级、过时、卡住等状态,并且某些OSDs处于未运行或不良状态。
要解决此问题,您可以尝试以下步骤:
1. 检查Ceph集群的状态:
```
ceph -s
```
您可以检查OSD和MON的状态,以确定哪些节点处于未运行或不良状态。您还可以检查PG的状态,以确定哪些PGs处于降级、过时、卡住等状态。
2. 如果某些OSDs处于未运行状态,请尝试启动它们:
```
sudo systemctl start ceph-osd@<osd-id>
```
其中<osd-id>是未运行的OSD的ID。
3. 如果某些PGs处于降级、过时、卡住等状态,请尝试重新启动它们:
```
ceph pg repair <pg-id>
```
其中<pg-id>是处于问题状态的PG的ID。
4. 如果您仍然遇到问题,请尝试清除PG的卡住状态:
```
ceph pg debug unfreeze
```
这将清除所有PG的卡住状态,并使它们重新开始重新平衡。
5. 如果您的OSD或MON节点处于不良状态,并且无法恢复,请尝试重新部署它们。
请注意,这些步骤可能需要一些时间来完成,具体取决于Ceph集群的规模和问题的严重程度。在执行这些步骤之前,请务必备份Ceph集群中的重要数据。
阅读全文