Ceph RADOS深度解析:京东虚拟化总监何雨解读
需积分: 18 25 浏览量
更新于2024-08-26
收藏 271KB PPT 举报
"数据复制是Ceph RADOS存储系统的核心机制,通过冗余和分布式策略确保数据的安全性和可用性。Ceph RADOS (Reliable Autonomic Distributed Object Store) 是一个高度可靠的分布式对象存储系统,主要由大规模的OSDs(Object Storage Devices)集群和少量的Monitors集群构成。
在Ceph系统中,数据复制主要是通过以下步骤实现的:
1. 客户端(Client)写入数据时,会将对象写入到一个确定的Placement Group (PG) 组中的主OSD(Object Storage Device)。PG是数据分布的基本单位,它决定了数据在OSD间的分布策略。
2. 主OSD使用CRUSH(Controlled Replication Under Scalable Hashing)映射算法来确定其他辅助OSDs,这些OSD会接收到数据的复制副本。CRUSH算法基于存储设备的故障域层次结构(如设备、主机、机架等)制定规则,以实现数据的智能分布和故障恢复。
3. 数据被复制到辅助OSD后,主OSD会确认存储成功,并向客户端发送响应。这样就确保了即使某个OSD出现故障,数据仍然可以从其他OSD中恢复,增强了系统的容错能力。
集群管理的核心数据结构——ClusterMap,包含了以下几个关键部分:
- Monitor Map:记录了每个监控节点的信息,包括其在集群中的位置、名称、地址和端口。
- OSD Map:列出了所有存储池、副本大小、PG数量,以及OSD的状态列表。
- PG Map:详细描述了每个Placement Group的状态,如版本、时间戳、最近的OSD映射时代、比例信息以及每个Pool的数据使用统计。
- CRUSH Map:列出存储设备列表、故障域层次结构以及用于存储数据的遍历规则。
- MDS Map:记录了Metadata Server的元数据版本、存储元数据的池、活动的Metadata Servers列表。
数据在Ceph中的存放遵循一定的策略。对象首先被写入到一个特定的PG,然后根据CRUSH Map的规则,数据会被复制到其他OSD上,形成多副本,确保高可用性。同时,通过Monitor节点维护的ClusterMap,可以实时跟踪集群状态并进行数据的重新分布,以适应OSD的增减或故障情况。
Ceph RADOS通过其独特的数据复制和分布策略,实现了高效、可靠且自修复的存储服务,广泛应用于大规模云存储和数据中心环境。"
2022-01-04 上传
点击了解资源详情
点击了解资源详情
点击了解资源详情
点击了解资源详情
点击了解资源详情
点击了解资源详情
花香九月
- 粉丝: 29
- 资源: 2万+
最新资源
- Ori and the Will of the Wisps Wallpapers Tab-crx插件
- 欧拉法:求出函数,然后用导数欧拉法画出来-matlab开发
- fpga_full_adder:FPGA实现全加器
- ecommerce:Projeto电子商务后端
- deploy_highlyavailable_website
- goclasses-theme:UTFPR-SH可以在WordPress上使用WordPress的方式进行转换
- A5Orchestrator-1.0.4-py3-none-any.whl.zip
- iz-gone:存档IZ *一个数据
- 找不到架构x86_64的符号
- Floats
- zen_garden
- kadai任务列表
- 模拟退火算法python实现
- Mosh-React-App:使用 CodeSandbox 创建
- python-pytest-azure-demo
- 菜单视图与UIPageviewController相结合