scala2.12版本使用Flink消费kafka中的数据,统计商城每分钟的GMV,将结果存入redis中
时间: 2024-06-04 16:13:11 浏览: 216
大数据实时流的计算框架,kafka+spark+redis,确保 spark所使用的scala版本与你系统scala的版本一致
好的,这个问题我可以回答。首先,你需要编写一个 Flink job,使用 Kafka Consumer connector 消费数据,然后使用 Flink 的 Window API 进行一分钟的滚动统计,并且计算出每分钟的 GMV 值。最后,使用 Redis Connector 将计算结果存入 Redis。
阅读全文