Kaggle OTTO多目标推荐竞赛19th总结:召回+精排策略与特征分析

需积分: 0 0 下载量 55 浏览量 更新于2024-08-03 收藏 131KB PDF 举报
该文档是关于2023年2月4日Kaggle OTTO多目标推荐竞赛的19th版本赛后总结,提供了详细的方案分析和竞赛策略。竞赛参与者采用了召回+精排的双阶段模型来提升推荐效果。首先,他们通过本地交叉验证(localcv),在训练集上使用前3周的数据,验证集用第4周的数据进行调整,实现了公共 LB(0.585)和私人 LB(0.585)的召回指标。 在召回阶段,他们采用的方法包括: 1. 每个会话召回100个候选商品(AIDs),通过历史交互记录、基于开源笔记本的i2i交互策略,以及填充最热门商品来构建候选列表。 2. 重要的i2i改进包括引入顺序权重,即在交互序列中考虑相邻商品的权重,并在i2i和u2i阶段都应用这一规则。 3. 正则化的 i2i 方法通过计算相似度字典,降低热门商品的权重,确保每个候选商品的i2i得分与其所在候选集中其他商品的平均分相比。 精排模型方面,使用了LightGBM Ranker模型,带有182个特征,采用0.2的负采样率。模型包含丰富的用户特征,如事件计数、类型计数、时间范围等,商品特征包括种类计数、时间特定性(如促销活动)、转化率、重复购买行为和首次/最后出现时间等。交互特征也涵盖了各类计数和衰减计数,以捕捉用户行为的时序性和关联性。 此外,团队还尝试了集成学习方法,通过5个不同种子的负采样,对具有相同特征的LightGBM Ranker进行了组合,最终达到了相同的公共和私人 LB(0.601)。 总体来说,这份总结揭示了参赛者在Kaggle OTTO多目标推荐竞赛中的关键策略和技术细节,对于理解多目标推荐问题以及如何优化模型性能具有很高的参考价值。