商汤科技面试攻略:简历技巧+Kafka顺序消费解析+CMS垃圾回收与SpringCloud组件详解

需积分: 0 0 下载量 170 浏览量 更新于2024-08-05 收藏 2.13MB PDF 举报
在商汤科技的讨论中,两个关键知识点被提及: 1. **简历撰写技巧**:在编写技术职位简历时,应聘者应注重展示自己的技术专长,包括所使用的特定技术产品及其同类产品的生态系统。例如,如果你熟悉Kafka,不仅要列出你的技能,还要了解其同类产品如RabbitMQ或Apache Pulsar的特点,以及它们之间的优劣对比。这展示了你对市场动态和竞争环境的了解,有助于面试官评估你的专业水平。 2. **Kafka技术细节**: - **数据分区与消费者关系**:Kafka的一个分区(partition)只能被同一消费组(consumer group)内的消费者消费,这样可以实现负载均衡。消费者向Kafka的ZooKeeper集群获取分区信息和Leader(负责处理写入和读取请求的broker)信息。然后,消费者将自己保存的offset(消费进度)告知Leader,后者根据offset找到对应的segment(索引文件)和log文件,定位并返回数据给消费者。 - **顺序保证**:Kafka本身保证每个partition内部的消息有序,但跨partition的顺序性由应用程序逻辑决定,通常通过业务层面的设计来实现,比如将相关数据分发到同一个partition中。 - **CMS垃圾回收机制**:Spring Cloud中涉及的CMS(Concurrent Mark Sweep)垃圾回收器,适用于对延迟敏感的服务,因为它能减少停顿时间。然而,长时间运行可能导致内存碎片化,并且算法实现复杂。CMS有周期性Old GC(被动触发)和主动Old GC(如YGC失败或手动调用System.gc时),以应对内存老化问题。 此外,讨论还涵盖了Spring Cloud组件的功能和区别,如Ribbon用于客户端负载均衡,Hystrix提供服务熔断和降级保护,以及Dubbo架构和负载策略的比较。这些知识点展示了面试者对微服务框架的理解和实践经验,对于应聘者来说,理解这些细节有助于在实际工作中优化服务架构和性能。