大数据简历项目:实战经验与技术栈分享

需积分: 50 28 下载量 134 浏览量 更新于2023-05-16 收藏 206KB PDF 举报
在这个大数据简历项目中,展示了应聘者在2016年4月至11月期间在上海润和信息技术服务有限公司担任大数据开发工程师的经历。该职位所在的公司属于计算机软件行业的上市公司,规模在1000-9999人之间,凸显了该岗位的行业背景和企业规模。 核心技能包括大数据开发技术,如JAVA、HADOOP、HDFS、IMPALA、Spark Streaming、REDIS、KAFKA、ZOOKEEPER以及MySQL。在项目中,这位工程师负责了多个关键任务: 1. 系统搭建:构建了高效的大数据开发环境,包括HADOOP、Spark、REDIS、KAFKA和ZOOKEEPER的配置,并进行了IMPALA建表等工作。 2. 代码开发与集成:编写了与HADOOP、Spark、KAFKA相关的Java类和工具,确保了系统的稳定运行和数据处理能力。 3. 需求理解与分析:与银联应用部门紧密合作,理解并实现了公共部分、运维查询、全渠道监控、国业系统和TCP监控等关键功能需求。 4. 实时数据分析:使用Spark Streaming进行实时数据处理,如统计报文响应成功率、响应状态等,并通过解析HTML、XML、JSON和KEYVALUE等格式的数据,将统计结果存储到IMPALA和REDIS以供前端访问。 5. 历史数据查询:利用IMPALA支持的批处理、窗口滑动功能,确保历史数据的完整性,而REDIS则提供快速查询和缓存服务。 6. 监控与故障诊断:针对全渠道监控,监控商户和机构的验签失败情况,并记录在IMPALA中;国业系统开发中,处理复杂的交易报文结构,跟踪交易阶段,计算响应时间。 7. 网络性能监控:通过对TCP流量、包、链路状态的实时监控,生成相关统计数据,同样存储在IMPALA和REDIS中。 这个项目展示了应聘者的实战经验和对大数据处理技术的深入理解,包括实时流处理、数据存储和查询性能优化等方面,对于那些关注大数据技术在实际业务中的应用和性能优化的求职者或开发者来说,具有很高的参考价值。