Ceph RADOS详解:统一存储系统的心脏
需积分: 18 13 浏览量
更新于2024-08-26
收藏 271KB PPT 举报
"京东虚拟化总监何雨对Ceph RADOS进行了深入的介绍,强调了其作为可靠且自愈的分布式对象存储系统的核心特性。在Ceph架构中,由大量OSD(对象存储设备)组成的集群负责存储数据,而少量监控器(Monitors)则构成强耦合的小型集群,管理关键的ClusterMap,该数据结构定义了集群的成员、关系、属性及数据分布。此外,还提到了几个关键的数据结构,如MonitorMap、OSDMap、PGMap、CRUSHMap和MDSMap,它们协同工作以确保数据的高效、安全存储。"
Ceph RADOS是构建大规模、高可用性存储解决方案的基础,它通过将数据分布在多个OSD上实现可靠性。每个OSD是一个独立的存储节点,可以是硬件设备或虚拟机,负责存储和处理对象数据。OSDs被组织成不同的Placement Groups (PGs),以实现数据的分布和冗余。
在PG内部,有两类重要的概念——peer和set。Peer指的是属于同一PG的OSD,它们之间会进行心跳检查和数据同步,以确保数据的一致性和可用性。Set则是PG内的一部分OSD,分为Acting Set和Up Set。Acting Set包含了当前参与PG操作的所有OSD,即所有PG内活跃的存储设备。而Up Set则特指那些状态为"up&in"的OSD,意味着这些设备在线并且在集群中正常工作。
ClusterMap是Ceph的核心数据结构,它包含了整个系统的元数据,如监控器的位置信息(MonitorMap)、OSD的状态和数据分布(OSDMap)、PG的详细信息(PGMap),以及用于确定数据放置规则的层次结构(CRUSHMap)和元数据服务(MDSMap)。MonitorMap记录了监控器的相关信息,OSDMap定义了存储池、副本大小、PG数量以及OSD的状态。PGMap详细列出了每个PG的状态、版本和使用统计。CRUSHMap则定义了存储设备的故障域层次结构和数据放置策略。MDSMap则关乎元数据服务器的状态和位置,以及元数据的存储池。
数据存放方面,Ceph使用对象(Obj)作为基本的存储单元,并通过CRUSH算法决定对象在OSD上的放置位置,以优化性能并实现容错。每个对象可以有多个副本,分布在不同的OSD上,这样即使有设备故障,数据也能通过其他副本恢复。
通过这些机制,Ceph RADOS能够提供高效、灵活且容错性强的存储解决方案,适合大规模的数据中心和云环境使用。无论是数据的读写,还是系统的扩展和维护,Ceph都能以自动化的方式处理,降低了运维复杂度,提升了整体系统的稳定性和可用性。
2018-06-16 上传
2021-05-14 上传
2021-03-26 上传
2021-04-29 上传
2021-03-11 上传
2021-02-01 上传
2021-05-17 上传
2021-03-07 上传
条之
- 粉丝: 24
- 资源: 2万+
最新资源
- 全国江河水系图层shp文件包下载
- 点云二值化测试数据集的详细解读
- JDiskCat:跨平台开源磁盘目录工具
- 加密FS模块:实现动态文件加密的Node.js包
- 宠物小精灵记忆配对游戏:强化你的命名记忆
- React入门教程:创建React应用与脚本使用指南
- Linux和Unix文件标记解决方案:贝岭的matlab代码
- Unity射击游戏UI套件:支持C#与多种屏幕布局
- MapboxGL Draw自定义模式:高效切割多边形方法
- C语言课程设计:计算机程序编辑语言的应用与优势
- 吴恩达课程手写实现Python优化器和网络模型
- PFT_2019项目:ft_printf测试器的新版测试规范
- MySQL数据库备份Shell脚本使用指南
- Ohbug扩展实现屏幕录像功能
- Ember CLI 插件:ember-cli-i18n-lazy-lookup 实现高效国际化
- Wireshark网络调试工具:中文支持的网口发包与分析