QQ IM后台架构演进:从十万到亿级在线的挑战
需积分: 9 130 浏览量
更新于2024-08-24
收藏 1.39MB PPT 举报
"腾讯大讲堂 - 1.4亿在线背后的故事 上"
在腾讯大讲堂的一次演讲中,即通平台部高级技术总监icezhuang分享了QQIM后台架构的演化与挑战,讲述了从十万级到亿级在线用户的过程中所遇到的问题和解决方案。随着QQ用户量的急剧增长,原有的第二代架构逐渐暴露出了无法支撑千万级在线用户的问题。
在第二代架构下,主要问题集中在两个方面:同步流量过大和单机容量限制。当在线用户数量达到千万级别时,同步流量的增大导致状态同步服务器面临单机瓶颈,无法处理所有的同步请求。同时,每个在线用户的在线状态信息量巨大,单台接入服务器的内存容量不足以存储所有用户的状态信息。如果继续增加在线人数,单台状态同步服务器也将无法承受。
在这种情况下,第二代架构的局限性变得尤为明显,迫切需要升级。为了解决这些问题,腾讯进行了架构的迭代,引入了新的设计来应对高并发和海量数据的挑战。例如,引入了长连接服务器,专门处理无法直连的客户端的实时宽带数据中转,减轻了接入服务器的压力。同时,对存储服务器进行了轻重分离,核心服务器专注于稳定性,而扩展服务器则能快速响应新业务需求,提高了系统的可扩展性和稳定性。
演讲者还提到了IM后台1.0和1.5版本的架构。在1.0版本中,接入服务器的核心数据结构是以UIN(用户ID)为基础,存储用户在线状态和好友列表的位置,通过实时通知和定期拉取的方式处理在线状态的获取。然而,随着业务复杂性的增加,如视频、语音、文件传输等实时宽带业务的需求,1.0架构不再适用。因此,1.5版本引入了长连接服务器和存储服务器的轻重分离,以更好地支持这些新业务,并提高系统性能。
面对亿级在线的挑战,腾讯团队通过不断的技术迭代和优化,实现了99.99%的高可用性,支撑着7亿活跃账户、1.4亿同时在线、过万台IM服务器、百亿级的关系链对数以及每天千亿级的服务请求。这充分体现了腾讯在海量服务理解和处理上的深厚积累。
总结起来,腾讯在应对千万级乃至亿级在线用户的过程中,通过不断的技术创新和架构升级,解决了同步流量过大、单机容量限制等问题,成功地构建了能够支持大规模并发的后台系统。这一过程中的经验教训对于其他面临类似挑战的IT企业具有重要的参考价值。
2020-06-03 上传
点击了解资源详情
点击了解资源详情
点击了解资源详情
点击了解资源详情
点击了解资源详情
我的小可乐
- 粉丝: 26
- 资源: 2万+
最新资源
- 平尾装配工作平台运输支撑系统设计与应用
- MAX-MIN Ant System:用MATLAB解决旅行商问题
- Flutter状态管理新秀:sealed_flutter_bloc包整合seal_unions
- Pong²开源游戏:双人对战图形化的经典竞技体验
- jQuery spriteAnimator插件:创建精灵动画的利器
- 广播媒体对象传输方法与设备的技术分析
- MATLAB HDF5数据提取工具:深层结构化数据处理
- 适用于arm64的Valgrind交叉编译包发布
- 基于canvas和Java后端的小程序“飞翔的小鸟”完整示例
- 全面升级STM32F7 Discovery LCD BSP驱动程序
- React Router v4 入门教程与示例代码解析
- 下载OpenCV各版本安装包,全面覆盖2.4至4.5
- 手写笔画分割技术的新突破:智能分割方法与装置
- 基于Koplowitz & Bruckstein算法的MATLAB周长估计方法
- Modbus4j-3.0.3版本免费下载指南
- PoqetPresenter:Sharp Zaurus上的开源OpenOffice演示查看器