论文Rethinking Large Language Model Architectures for Sequential Recommendations的主

1个回答

写回答

bzy223

2026-01-08 19:06

+ 关注

以更好地处理序列推荐任务,提升预测准确性与用户体验。研究结合实际应用场景,提出创新性的改进方案。论文链接如下,探讨了相关领域的前沿进展,值得一读。

目前多数LLM4Rec范式都遵循类似图1的设计,将推荐问题转化为自然语言处理任务,借助提示词,通过束搜索让大模型自回归生成下一个项目。然而,这种方式推理成本较高,限制了其实际应用,尤其难以满足实时用户交互与反馈的需求。

本文通过实验发现,LLM的束搜索模块耗时较长,推理时间随输入长度减少而降低。同时存在两处冗余计算问题有待优化。为此,本文设计了以下方法解决上述问题:本文先探讨以下两个问题:作者对比了P5、POD两种LLM推荐模型与传统BERT4rec推荐模型的性能表现。

由表1可知,P5和POD相较于Bert4rec,效率大幅下降,速度慢近千倍。其中,POD因缩短输入长度,减少了计算成本,故效率略高于P5。为解答问题二,作者对模型各模块进行了耗时分析。

图2显示,decoder阶段的Beam_search在POD和P5模型中均为耗时最高部分。总而言之针对上述问题,本文提出了一种名为Lite-LLM的模型,其整体结构包括层级LLM设计(由Item LLM和Recommendation LLM组成),并将传统的Beam Search替换为线性映射层,以优化性能表现。

层级LLM分为Item LLM和Recommendation LLM两部分:这种设计的优势在于,能够借助Item LLM显著缩短输入长度。鉴于解码器中Beam Search耗时最多,本文用Item线性层取代它,线性层维度等于item集合大小。主要原因如下:效率提升、结构简化以及效果相当,同时降低计算复杂度,提高模型推理速度。以下是实验的总体结果:

推理时间显著减少,平均输入长度也大幅缩短。

本文思路较为简洁明了,通过对LLM4Rec耗时原因的深入分析,优化了item输入长度,并用MLP替代Beam_search模块,在保证效果不下降的情况下显著减少了运行时间。不过,文中使用两个LLM进行编码的做法略显冗余,可能用传统ID类推荐模型生成的item embedding代替其中一个,并与LLM对齐,会进一步提升效率和实用性。

举报有用(0分享收藏

Copyright © 2025 IZhiDa.com All Rights Reserved.

知答 版权所有 粤ICP备2023042255号