LLM在推荐系统中的应用与综述论文解读

1个回答

写回答

887223

2025-11-02 02:35

+ 关注

ABS
ABS

学术界和工业界纷纷将其应用于推荐系统。借此机会,梳理近期相关论文,探究大语言模型在推荐系统的应用进展与思路,从而为我们的实际业务提供参考和启发。论文链接:ABS/2305.19860">https://arxiv.org/ABS/2305.19860,点击可查看详细内容。本文系统回顾了基于LLM的推荐系统现状,着重扩展语言模型能力。分析现有技术,全面概述相关进展与应用,展现其发展潜力。据我们了解,这是首个专门针对推荐系统生成式大型语言模型的全面且最新的调查回顾。本文综述对现有方法的优势、劣势及局限进行了批判性分析,指出基于大语言模型的推荐系统面临的核心挑战,同时提出若干有意义的发现,有望推动这一前沿领域开展更深入的研究探索。

概述型学术论文其他相关综述文章:大型语言模型时代下的推荐系统(2023年8月),引用次数达83次。该文探讨了LLMs对推荐系统的影响,结合先进技术优化用户体验,成为当前研究热点,具有重要参考价值。

网络分析:https://zhuanlan.zhihu.com/p/655287365(2)推荐系统如何从大型语言模型中受益:一项调查—2024年2月,引用次数:18次。该文综述了大语言模型在推荐系统中的应用潜力与方法,为相关研究提供参考。论文链接:https://arxiv.org/ABS/2306.05817,点击可查看详细内容。本文主要研究推荐系统(RS)如何借助大型语言模型(LLM)提升性能。文章强调,随着在线服务和网络应用的迅猛发展,推荐系统已成为解决信息过载和提供个性化建议的核心工具。尽管传统推荐系统(CRM)在过去取得了长足进步,但依然面临一些挑战,如缺乏对开放领域知识的运用,以及难以深入理解和捕捉用户的潜在偏好与行为动机。论文指出,大型语言模型由于在多项自然语言处理任务中表现出通用智能与近似人类的能力而受到广泛关注。其能力主要得益于广泛覆盖的开放世界知识、逻辑推理及常识理解,以及对人类文化和社会的深刻洞察。由此,大型语言模型为推荐系统的设计带来了新的探索方向,即通过结合其通用知识与技能,是否能够克服传统推荐系统的不足之处。本文系统性地从两个相互独立的维度对现有研究进行了总结:大型语言模型(LLM)能够在推荐系统的哪些环节发挥作用(WHERE问题),以及如何将LLM融入以优化推荐系统(HOW问题)。针对WHERE问题,文章分析了LLM在推荐系统各阶段可能承担的角色,包括特征工程、特征编码、评分/排序函数、用户交互及管道控制等。对于HOW问题,则探讨了训练与推理方法,并提出了两项具体的分类依据:一是在训练过程中是否调整LLM参数;二是在推理阶段是否结合传统推荐模型。这为理解LLM在推荐系统中的应用提供了清晰框架。论文还指出,将大语言模型应用于推荐系统时面临三大主要挑战:效率、有效性和伦理问题。论文对研究结果进行总结,探讨了LLM增强推荐系统的未来发展方向。为促进这一新兴领域的研究,作者还维护了一个GitHub仓库,汇总相关论文及资源,助力社区成长。总体上,本文为理解大型语言模型如何提升推荐系统提供了全面视角,也为未来研究与实践指明了宝贵方向。CSDN文章解析:通过分析https://blog.csdn.net/lichunericli/article/detAIls/137519852,深入探讨技术要点,梳理核心内容,帮助读者快速掌握关键信息,提升理解效率。论文地址:https://arxiv.org/ABS/2311.01343,点击可查看详细内容。

人类
人类

论文地址:https://arxiv.org/ABS/2310.15950,点击可查看详细内容。论文代码已开源,可在以下链接查看:https://github.com/HKUDS/RLMRec

论文地址:https://arxiv.org/ABS/2308.11131,点击可查看详细内容。论文代码已发布,感兴趣的研究者可访问以下链接查看和获取:https://github.com/LaVieEnRose365/ReLLa

论文地址:https://arxiv.org/ABS/2306.17256,点击可查看详细内容。论文代码已开源,感兴趣的朋友可以访问以下链接查看:https://github.com/JacksonWuxs/PromptRec

论文地址:https://arxiv.org/ABS/2310.09233,点击可查看详细内容。大语言模型展现出的强大决策能力,使其在作为人类代理方面具有巨大潜力。然而,当前的研究主要集中在模仿人类对话,而对于非语言行为的模拟,例如推荐系统中用户对物品的点击行为,尚未得到充分探索。这些点击行为能够隐式地反映用户的偏好,并有助于增强用户建模的效果。本文认为,造成这一现象的主要原因在于语言建模与行为建模之间的差异,以及大语言模型对用户-物品关系理解的不足。为解决这一问题,本文提出了AgentCF,这是一种基于智能体协同过滤的方法,旨在模拟推荐系统中的用户-物品交互行为。该方法将用户和物品均视为智能体,并通过协同学习的方式同时优化这两类智能体的行为。具体而言,在每个时间步,首先引导用户智能体和物品智能体进行自主交互。随后,根据智能体交互决策与真实世界交互记录之间的差异,提示智能体共同反思并调整错误的模拟偏好信息,从而逐步学习并建模用户与物品之间的关系。在后续的交互过程中,这些智能体会进一步将学到的偏好传播给其他智能体,从而隐式地实现协同过滤的效果。基于上述框架,本文成功模拟了多种用户-物品交互形式。实验结果表明,这些智能体能够展现出类似人类的行为特征,为进一步探索非语言行为的模拟提供了新的思路。

论文详细信息可查看以下链接:https://careersciencelab.com/seed-detAIl?id=62&from=publications,里面有全面的内容介绍,欢迎了解。

论文地址:https://arxiv.org/ABS/2307.05722,点击可查看详细内容。论文代码已开源,可在以下地址查看:https://github.com/WLiK/GLRec

论文地址:https://arxiv.org/ABS/2307.10747,欢迎访问查阅。

论文地址:https://arxiv.org/ABS/2308.10835,点击即可查阅详细内容。推荐系统的主要目标是为用户提供相关建议,但现有方法通常缺乏解释能力,也难以捕捉用户行为与画像之间的复杂语义关系。为此,本文提出了一种基于大型语言模型(LLMs)构建个性化推理图的新方法,用于以可解释的方式表达用户的兴趣。该方法被称为LLM推理图(LLMRG),由四个关键组件构成:链式图推理、分歧扩展、自我验证与评分,以及知识库自我优化。通过因果推理和逻辑推理,推理图将用户的行为序列与其画像特征连接起来,从而更精准地刻画用户兴趣。生成的推理图可通过图神经网络进行编码,并作为附加输入整合到传统推荐系统中,无需额外收集用户或物品信息。本文展示了如何利用LLMs构建更具逻辑性和可解释性的推荐系统。LLMRG使推荐系统既能从传统工程化方法中获益,也能充分利用LLMs生成的推理图。实验结果表明,在基准数据集和实际场景中,LLMRG能够有效提升基础推荐模型的性能。这一方法为未来推荐系统的改进提供了新的思路。

论文地址:https://arxiv.org/ABS/2311.00423,点击可查看详细内容。论文代码已开源,可在以下链接查看:https://github.com/HKUDS/LLMRec深度解析CSDN文章:https://blog.csdn.net/weiwei935707936/article/detAIls/134379924,内容涵盖技术要点、代码实现与应用场景,助您全面掌握核心知识,提升开发技能。

论文地址:https://arxiv.org/ABS/2305.06566,点击可查看详细内容。论文代码已发布于GitHub,有兴趣的读者可访问以下链接查看:https://github.com/Jyonn/ONCE。当前的推荐系统在深入理解物品内容方面存在显著挑战。大型语言模型(LLMs)凭借其深层语义理解和丰富的预训练知识,在众多自然语言处理任务中展现了卓越性能。本文研究了如何利用开源与闭源LLMs提升基于内容的推荐效果。对于开源LLMs,我们将其复杂的内部结构用作内容编码器,从而增强了嵌入层面的内容表达能力。而对于闭源LLMs,则通过提示工程技术在标记级别上丰富训练数据的质量与多样性。实验结果表明,这两种类型的LLMs不仅各自高效,还表现出良好的协同作用。与目前最先进的推荐模型相比,实验数据显示相对改进最高可达19.32%。这一成果充分证明了开源和闭源LLMs在强化基于内容的推荐系统方面的巨大潜力,为未来的研究和应用提供了重要参考方向。

大型语言模型在推荐系统中的应用,主要是融入开放域知识,提升推荐效果。可针对具体场景数据进行监督微调。参考华为诺亚技术分享,了解LLM在推荐系统的实践与应用经验,拓展应用场景。详尽说明文档:

论文链接:https://arxiv.org/ABS/2401.04997,点击可查看详细内容。

论文地址:https://arxiv.org/ABS/2303.14524,点击即可查看详细内容。

论文地址:https://arxiv.org/ABS/2304.03879自然语言处理(NLP)领域的最新进展推动了基于NLP的推荐系统的发展,其性能表现尤为突出。然而,现有的模型通常将项目简单视为ID,并采用判别式建模方法,这带来了以下局限性:(1)无法充分利用项目的内容信息和NLP模型的语言建模能力;(2)难以准确解读用户的兴趣,从而影响相关性和多样性;(3)在面对实际场景中的动态变化(如新增项目库存)时适应性不足。为解决上述问题,我们提出了GPT4Rec,这是一种受搜索引擎启发的生成式框架,具有较高的灵活性与创新性。该框架的核心思想是根据用户历史记录中的项目标题生成假设的搜索查询,然后通过这些查询检索出推荐项目。通过学习语言空间中用户和项目的嵌入表示,GPT4Rec成功克服了传统方法的限制。为了更全面地捕捉用户兴趣的不同维度和粒度,从而进一步提升相关性和多样性,我们设计了一种基于波束搜索的多查询生成技术。生成的查询不仅能够作为用户兴趣的可解释表示,还能用于冷启动项目的推荐。实验表明,在两个公开数据集上,借助GPT-2语言模型和BM25搜索引擎,我们的框架在Recall@K指标上分别比现有最佳方法提升了75.7%和22.2%。此外,实验结果还证明,使用波束搜索生成多个查询可以有效提高检索项目的多样性和对用户多重兴趣的覆盖范围。通过定性案例研究,我们探讨了生成查询的适应性和可解释性,验证了其在实际应用中的潜力和价值。

论文地址:https://arxiv.org/ABS/2305.06569,点击即可查看详细内容。GitHub代码地址:https://github.com/Wenyueh/LLM-RecSys-ID,欢迎查看。

最新文章请关注我的微信公众号或网络专栏:数据拾光者,获取更多精彩内容。写作不易,希望大家多多关注和支持。

举报有用(0分享收藏

Copyright © 2025 IZhiDa.com All Rights Reserved.

知答 版权所有 粤ICP备2023042255号