腾讯大讲堂:1.4亿在线背后的IM后台架构演进
需积分: 3 195 浏览量
更新于2024-08-19
收藏 1.39MB PPT 举报
"这篇内容是腾讯大讲堂走进北京航空航天大学的一次演讲,主题为‘1.4亿在线背后的故事’,由腾讯即通平台部高级技术总监icezhuang分享了QQIM后台架构的演化历程和经验教训。演讲者在2001年毕业于中国科学技术大学,2004年进入腾讯,参与了IM后台的研发运营,见证了QQ在线用户从十万级到亿级的全过程。演讲内容包括不同阶段的在线规模对应的架构设计,如IM后台1.0和1.5版本的设计与挑战。"
在腾讯的业务集群容灾改造中,他们采用了多种策略来确保系统的高可用性和稳定性。首先,业务命令流和设备状态流的设计是为了监控和管理业务操作以及设备的实时状态,这有助于及时发现并处理问题。接入集群和业务集群分别部署在不同的IDC(互联网数据中心)中,以实现地理上的冗余,降低单一IDC故障带来的影响。指挥中心在两个IDC都有部署,可以确保在灾难发生时能够快速切换和恢复服务。
在IM后台架构的早期版本中,例如IM后台1.0,核心数据结构是围绕接入服务器和存储服务器构建的。接入服务器负责用户登录、在线状态获取等操作,而存储服务器则按用户ID(UIN)和好友列表进行分片存储,以优化访问效率。这一设计在十万级在线用户时是有效的,但随着用户数量的增长,内存瓶颈和扩展性问题逐渐显现。
为了支持更复杂的业务需求,如视频、语音和文件传输,IM后台演进到1.5版本。这个阶段引入了长连接服务器,用于处理实时宽带数据中转,减轻了接入服务器的压力。同时,存储服务器被分为核心和扩展两类,核心服务器保证基础服务的稳定性,扩展服务器则用于快速响应新业务需求。这种分离设计提高了系统的可扩展性和稳定性,但也暴露出在应对百万级在线用户时的挑战,比如单个在线用户占用内存过大,可能导致接入服务器内存溢出。
演讲者强调,面对海量服务,理解并解决大规模系统的问题需要长时间的积累和不断迭代。随着用户基数的增加,腾讯团队不断优化架构,解决了一个又一个的技术难题,保证了99.99%的高可用性,支撑起每天千亿级别的服务请求。
腾讯的业务集群容灾改造涉及到多个层面,包括但不限于分布式部署、负载均衡、服务分离、实时数据处理和存储优化。这些经验对于任何需要处理高并发、大规模用户量的互联网企业都具有重要的参考价值。
2021-10-12 上传
2020-04-06 上传
2021-10-12 上传
点击了解资源详情
2021-07-07 上传
2022-03-09 上传
2023-03-15 上传
2021-10-11 上传
2021-10-13 上传
Happy破鞋
- 粉丝: 12
- 资源: 2万+
最新资源
- WordPress作为新闻管理面板的实现指南
- NPC_Generator:使用Ruby打造的游戏角色生成器
- MATLAB实现变邻域搜索算法源码解析
- 探索C++并行编程:使用INTEL TBB的项目实践
- 玫枫跟打器:网页版五笔打字工具,提升macOS打字效率
- 萨尔塔·阿萨尔·希塔斯:SATINDER项目解析
- 掌握变邻域搜索算法:MATLAB代码实践
- saaraansh: 简化法律文档,打破语言障碍的智能应用
- 探索牛角交友盲盒系统:PHP开源交友平台的新选择
- 探索Nullfactory-SSRSExtensions: 强化SQL Server报告服务
- Lotide:一套JavaScript实用工具库的深度解析
- 利用Aurelia 2脚手架搭建新项目的快速指南
- 变邻域搜索算法Matlab实现教程
- 实战指南:构建高效ES+Redis+MySQL架构解决方案
- GitHub Pages入门模板快速启动指南
- NeonClock遗产版:包名更迭与应用更新