[root@dai23 examples]# kubectl logs -n rook-ceph rook-ceph-osd-prepare-dai25-9pxp8 025-03-12 01:15:33.260168 W | inventory: uuid not found for device /dev/sdb. output=Creating new GPT entries in memory. Disk /dev/sdb: 83886080 sectors, 40.0 GiB Model: VMware Virtual S Sector size (logical/physical): 512/512 bytes Disk identifier (GUID): 4754F882-F0A5-401C-8D25-C23ADA95B6C5 Partition table holds up to 128 entries Main partition table begins at sector 2 and ends at sector 33 First usable sector is 34, last usable sector is 83886046 Partitions will be aligned on 2048-sector boundaries Total free space is 83886013 sectors (40.0 GiB) Number Start (sector) End (sector) Size Code Name 2025-03-12 01:15:33.260287 I | cephosd: setting device type "hdd" for device "/dev/sdb" 2025-03-12 01:15:33.260314 I | cephosd: setting device class "hdd" for device "/dev/sdb" 2025-03-12 01:15:33.260384 I | cephosd: 1 ceph-volume raw osd devices configured on this node 2025-03-12 01:15:33.260430 I | cephosd: devices = [{ID:0 Cluster:ceph UUID:6a9f8512-fdce-4583-ac9e-e23f01e44fd1 DevicePartUUID: DeviceClass:hdd BlockPath:/dev/sdb MetadataPath: WalPath: SkipLVRelease:true Location:root=default host=dai25 LVBackedPV:false CVMode:raw Store:bluestore TopologyAffinity: Encrypted:false ExportService:false NodeName: PVCName: DeviceType:hdd}] [root@dai23 examples]# kubectl get CephCluster -n rook-ceph NAME DATADIRHOSTPATH MONCOUNT AGE PHASE MESSAGE HEALTH EXTERNAL FSID rook-ceph /var/lib/rook 2 63m Ready Cluster created successfully HEALTH_WARN 77b65090-25cf-4ff6-a840-c0419041c0e4
首先,用户提到使用kubectl logs来查看OSD准备日志。根据引用[2],当OSD Pod无法启动时,应该查询osd prepare日志。命令示例是kubectl -n rook-ceph logs rook-ceph-osd-prepare-nodeX-XXXXX provision。这里需要注意的是,用户需要替换节点名称和Pod后缀。所以正确的步骤应该是先获取具体的Pod名称,再执行logs命令。可能用户不知道如何获取Pod名称,需要指导他们使用kubectl get pod来列出所有相关的Pod,然后用grep过滤出osd-prepare的Pod。
然后,关于kubectl get CephCluster的输出解析。引用[2]和[4]中提到使用kubectl get CephCluster -o yaml来查看详细状态。状态中的phase字段是关键,可能的状态包括Progressing、Ready、Error等。此外,需要检查status部分中的cephStatus和conditions,这些会显示健康状态和错误信息。用户可能需要了解这些字段的含义,比如如果health显示HEALTH_ERR,就需要进一步检查。
用户的问题可能涉及到如何诊断OSD准备失败的原因,比如存储设备配置错误、权限问题或资源不足。例如,在引用[4]中,OSD Prepare Job没有完成,可能是因为节点上的存储设备未正确配置。因此,在查看日志时,需要特别关注错误信息,比如无法找到磁盘、权限问题或镜像拉取失败等。
另外,用户可能还需要知道如何重启operator或重新部署集群。引用[2]提到可以通过kubectl rollout restart deploy rook-ceph-operator来重启operator,这可能帮助解决某些部署问题。但需要提醒用户谨慎操作,尤其是在生产环境中。
最后,需要确保用户正确使用命名空间rook-ceph,因为所有相关资源都位于这个命名空间下。如果用户忘记指定-n rook-ceph,命令会执行失败,所以要在每个命令中强调命名空间参数。
总结回答结构应该是:先解释如何查看OSD准备日志的步骤,然后解析CephCluster的状态输出,最后给出常见问题及解决方法。需要确保命令示例准确,并引用提供的参考文献中的信息,比如引用[2]和[4]中的命令和注意事项。### 查看Rook Ceph OSD准备日志及集群状态解析
1. 查看OSD准备日志
操作步骤:
- 首先获取OSD Prepare Pod的名称(Pod名称包含节点名和随机后缀):
输出示例:kubectl -n rook-ceph get pods | grep osd-prepare
rook-ceph-osd-prepare-node01-abcde 0/1 Completed 0 3h rook-ceph-osd-prepare-node02-xyzqw 1/1 Running 0 3h
- 查看具体Pod的日志(以
node01
为例):
日志关键点:kubectl -n rook-ceph logs rook-ceph-osd-prepare-node01-abcde provision
- 设备识别:检查是否成功发现预期磁盘(如
/dev/sdb
)。 - 权限问题:若出现
permission denied
,需检查Pod的SecurityContext或存储设备权限[^2]。 - 存储配置:若使用裸磁盘,需确认
cluster.yaml
中useAllDevices
或deviceFilter
配置正确[^3]。
- 设备识别:检查是否成功发现预期磁盘(如
2. 解析CephCluster状态
操作步骤:
kubectl -n rook-ceph get CephCluster -o yaml
输出关键字段解析:
- **
status.phase
**:集群状态阶段,可能值为:Progressing
:部署中。Ready
:正常运行。Error
:存在配置或资源问题[^2]。
- **
status.cephStatus.health
**:Ceph集群健康状态:HEALTH_OK
:正常。HEALTH_WARN
:警告(如OSD未满但接近容量)。HEALTH_ERR
:严重错误(如多个OSD宕机)[^4]。
- **
status.conditions
**:详细错误描述,例如:- lastTransitionTime: "2023-10-01T02:00:00Z" message: "OSD provisioning failed on node01" reason: InvalidDevice status: "True" type: Failure
3. 常见问题及解决
- 问题1:OSD Prepare Pod卡在
Pending
状态- 原因:节点资源不足或污点(Taint)导致Pod无法调度。
- 解决:
kubectl describe pod rook-ceph-osd-prepare-node01-abcde -n rook-ceph # 查看事件详情
- 问题2:日志显示
no available devices
- 原因:
cluster.yaml
中未正确指定磁盘或使用了已挂载的磁盘。 - 解决:检查CephCluster CRD配置,确认
storage.nodes
包含目标节点及设备列表[^3]。
- 原因:
- 问题3:CephCluster状态为
Error
但PV仍可用- 说明:可能部分OSD异常但整体集群仍维持最小可用状态。
- 恢复:重启Ceph Operator尝试重新部署:
kubectl rollout restart deploy rook-ceph-operator -n rook-ceph # 引用[2]
相关推荐







