Ceph RADOS详解:统一存储系统的心脏
需积分: 18 146 浏览量
更新于2024-08-26
收藏 271KB PPT 举报
"京东虚拟化总监何雨对Ceph RADOS进行了深入的介绍,强调了其作为可靠且自愈的分布式对象存储系统的核心特性。在Ceph架构中,由大量OSD(对象存储设备)组成的集群负责存储数据,而少量监控器(Monitors)则构成强耦合的小型集群,管理关键的ClusterMap,该数据结构定义了集群的成员、关系、属性及数据分布。此外,还提到了几个关键的数据结构,如MonitorMap、OSDMap、PGMap、CRUSHMap和MDSMap,它们协同工作以确保数据的高效、安全存储。"
Ceph RADOS是构建大规模、高可用性存储解决方案的基础,它通过将数据分布在多个OSD上实现可靠性。每个OSD是一个独立的存储节点,可以是硬件设备或虚拟机,负责存储和处理对象数据。OSDs被组织成不同的Placement Groups (PGs),以实现数据的分布和冗余。
在PG内部,有两类重要的概念——peer和set。Peer指的是属于同一PG的OSD,它们之间会进行心跳检查和数据同步,以确保数据的一致性和可用性。Set则是PG内的一部分OSD,分为Acting Set和Up Set。Acting Set包含了当前参与PG操作的所有OSD,即所有PG内活跃的存储设备。而Up Set则特指那些状态为"up&in"的OSD,意味着这些设备在线并且在集群中正常工作。
ClusterMap是Ceph的核心数据结构,它包含了整个系统的元数据,如监控器的位置信息(MonitorMap)、OSD的状态和数据分布(OSDMap)、PG的详细信息(PGMap),以及用于确定数据放置规则的层次结构(CRUSHMap)和元数据服务(MDSMap)。MonitorMap记录了监控器的相关信息,OSDMap定义了存储池、副本大小、PG数量以及OSD的状态。PGMap详细列出了每个PG的状态、版本和使用统计。CRUSHMap则定义了存储设备的故障域层次结构和数据放置策略。MDSMap则关乎元数据服务器的状态和位置,以及元数据的存储池。
数据存放方面,Ceph使用对象(Obj)作为基本的存储单元,并通过CRUSH算法决定对象在OSD上的放置位置,以优化性能并实现容错。每个对象可以有多个副本,分布在不同的OSD上,这样即使有设备故障,数据也能通过其他副本恢复。
通过这些机制,Ceph RADOS能够提供高效、灵活且容错性强的存储解决方案,适合大规模的数据中心和云环境使用。无论是数据的读写,还是系统的扩展和维护,Ceph都能以自动化的方式处理,降低了运维复杂度,提升了整体系统的稳定性和可用性。
2018-06-16 上传
2021-05-14 上传
2021-03-26 上传
2021-04-29 上传
2021-03-11 上传
2021-02-01 上传
2021-05-17 上传
2021-03-07 上传
条之
- 粉丝: 27
- 资源: 2万+
最新资源
- 二维码编码器:二维码编码器,基于 Lior Shapira 的工作-matlab开发
- technicaldocumentation
- stm32-h750-proj
- CurrencyConverter:在React Native中创建的货币转换器
- notmuch-notify:新邮件到达的通知不多
- hifi-spatial-audio-js
- Klinik-GK-082366666660-Jual-Obat-Aborsi-Di-Surabaya:APOTEK GK FARMASI 24 JAM奥巴特·阿博西·阿斯里-欧巴特·特拉特·布兰·阿斯里-贾巴尔·奥巴特MENYEDIAKAN OBAT ABORSI PAKET TUNTAS KONSULTASI 082366666660纳玛·普鲁德克(Nama Produk)
- VietPad-开源
- nacos-server-2.0.3.zip
- aws_django_python
- 加拉加斯:JPAHibernate
- esbooyah:使用TypeScript编写的基于ESBuild的Booyah游戏引擎
- mpu9250-rpi-testing
- HazardousFDM:我的GitHub个人资料的配置文件
- 时频自动增益控制 (AGC):自动增益控制 (AGC) 尝试为音频信号保持恒定的能量水平。-matlab开发
- 白菜cms双端影视APP源码_全开源版_无授权无后门