LLMRec:利用预训练语言模型提升推荐系统效能

需积分: 0 9 下载量 152 浏览量 更新于2024-08-03 收藏 6.01MB DOCX 举报
"WSDM2024的议题探讨了如何基于大语言模型(LLM)构建推荐系统,提出了名为LLMRec的新框架。该框架利用LLM的数据增强策略来改进传统推荐系统中side information的处理,以解决噪声、可用性和质量等问题。通过隐式反馈增强、item-attribute增强和user-profile增强,LLMRec能更好地理解和建模用户偏好。此外,还设计了去噪机制以保证增强数据的可靠性。然而,将LLM应用于推荐系统面临挑战,如模型未训练推荐任务以及输入长度限制。为克服这些挑战,LLMRec采用基础模型(如LightGCN)提供item候选,以便LLM能在有限的输入下进行有效推荐。" 在本文中,我们深入探讨了如何将大语言模型(LLM)应用于推荐系统,以提升推荐效果。推荐系统已经广泛应用于各种平台,如X、Netflix、微博等,它们不仅依赖于用户与项目的交互数据,还依赖于文本、图像和音频等辅助内容。然而,辅助信息可能带来噪声和质量问题,影响推荐准确性。LLMs,因其强大的自然语言理解和知识表示能力,为解决这些问题提供了新的思路。 LLMRec是一个创新的推荐系统框架,它提出了三种数据增强策略: 1. 隐式反馈的增强:利用LLM理解并增强用户行为数据,减少噪声影响,更准确地捕捉用户喜好。 2. item-attribute的增强:通过LLM理解物品属性,提高对物品特征的建模,增强推荐的精准度。 3. user-profile的增强:运用LLM解析用户资料,从语义层面理解用户兴趣,提供更个性化的推荐。 为了确保增强数据的可靠性,LLMRec实施了去噪机制,包括对噪声边的修剪和基于MAE(Mean Absolute Error)的特征增强,以过滤不准确的信息。 然而,直接应用LLM于推荐系统面临两个主要挑战: 1. LLM未在推荐任务上预训练:LLM需要适应推荐系统的特定需求,这通常涉及微调或迁移学习。 2. 输入长度限制:LLM的最大处理 token 数量有限,限制了其处理大规模项目集的能力。 为克服这些挑战,LLMRec结合基础模型,如LightGCN,生成每个用户的物品候选列表,缩小LLM的输入范围,使其能在有限的信息下进行有效的推荐决策。这种方法巧妙地将LLM的强大力量与传统推荐算法结合起来,实现了更高效、更准确的推荐服务。