前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >从ID-based到LLM-based: 可迁移推荐系统研究进展总结

从ID-based到LLM-based: 可迁移推荐系统研究进展总结

作者头像
张小磊
发布2023-11-07 16:27:48
5870
发布2023-11-07 16:27:48
举报

嘿,记得给“机器学习与推荐算法”添加星标


作者:张家祺 单位:西湖大学

TLDR: 本文综述了近期关于可迁移推荐系统的发展现状,并分别介绍了基于ID、基于模态和基于大语言模型的可迁移推荐系统的代表性工作,最后对该方向进行了系统性的总结和展望。

论文列表:https://github.com/westlake-repl/Recommendation-Systems-without-Explicit-ID-Features-A-Literature-Review

一、可迁移推荐系统发展历程

推荐系统的核心目标是通过建模用户的历史行为预测最有可能交互的下一个目标。而这一目标在用户交互记录较少的情况下尤为困难,即长期困扰推荐系统领域发展的冷启动问题。在这些新用户很少并且其交互序列有限的新推荐系统场景中,前期的模型训练往往缺乏足够的样本数据。对有限训练数据的建模也必然无法获得用户满意的推荐结果,使得平台成长受到很大阻碍。迁移学习是学术界和工业界为了解决这一问题所一直关注的解决方案。如果可以向新场景中引入预先训练到的知识帮助建模用户序列或加速建模速度,这将极大缓解下游新场景中冷启动问题带来的巨大成本。

为此,对可迁移推荐系统的研究几乎贯穿了推荐系统领域发展的每一个阶段。从基于物品ID和用户ID的矩阵分解时代,可迁移推荐系统必须基于上下游场景的数据覆盖实现基于ID的推荐系统迁移学习。到近几年模态理解技术的迅猛发展,研究人员逐渐转向利用纯模态信息建模用户序列,从而实现在上下游场景没有数据覆盖的情况下实现可迁移推荐系统。再到当下利用大规模预训练语言模型(LLM)完成‘one-for-all’的推荐系统大模型得到大量关注。可迁移推荐系统乃至推荐系统大模型的研究已成为推荐系统领域发展的下一个方向。

二、基于ID的可迁移推荐系统

第一阶段是矩阵分解时代,使用ID embedding来建模物品的协同过滤算法是推荐系统的主流范式,并在之后的15年间主导了整个推荐系统社区。经典架构包括:双塔架构、CTR模型、会话和序列推荐、Graph网络。他们无不采用ID embedding 来对物品进行建模,整个推荐系统现有的SOTA体系也几乎都是采用基于ID特征的建模手段。这一阶段,可迁移推荐系统自然依靠ID实现,而且必须在上下游场景之间有数据重叠,即要求不同数据集之间存在共同用户或者物品,例如大公司里存在多个业务场景, 通过老的业务引流新的业务。这一阶段的早期工作有PeterRec [1](SIGIR2020)、Conure [2](SIGIR2021)和CLUE [3] (ICDM2021)等。

PeterRec是推荐系统领域首篇论文明确提出基于自监督预训练(自回归与Mask语言模型)的用户表征具备通用性,并清晰地呈现出该预训练的通用表征可用于跨域推荐和用户画像预测,显著提升性能。其中,采用用户画像预测评估用户表征的通用性被后续相关论文广泛沿用。同时,PeterRec提出,通用性用户模型在下游任务迁移过程,应该做到参数有效共享(公司往往有上百种用户画像要预测,数十个业务推荐场景),并引入基于Adapter技术,这也是推荐系统首次采用Adapter,通过微调模型补丁实现不同任务有效迁移学习。另外,PeterRec还发布了一套大规模的跨域推荐系统数据集。

Conure是推荐系统领域首个用户通用表征的终生学习(lifelong learning)模型,首次提出一个模型连续学习和同时服务多个不同的下游任务。作者提出的‘一人一世界’概念启发了当下推荐系统one4all模型的研究。

CLUE认为PeterRec与Conure算法在学习用户表征时,采用自回归或者mask机制都是基于物品粒度的预测,而最优的用户表征显然应该是对完整的用户序列进行建模和训练。因此结合对比学习获得了更优的结果。

这期间有一些同时期或者future work,包括阿里的Star模型(One Model to Serve All: Star Topology Adaptive Recommender for Multi-Domain CTR Prediction),以及ShopperBERT模型 (One4all User Representation for Recommender Systems in E-commerce)。

三、基于模态信息的可迁移推荐系统

以上工作基于共享(用户或者物品)ID方式实现领域之间的迁移性和跨域推荐,比较适用于公司内部不同业务之间, 而现实中不同推荐系统很难共享用户与item的ID信息,使得跨平台推荐这一类研究具有明显的局限性。

相比之下,深度学习的其他社区,如自然语言处理(NLP)与计算机视觉(CV)领域近几年已经涌现出一系列有影响力的通用型大模型,又称基础模型(foundation model),如BERT、GPT、Vision Transformer等。相比推荐系统ID特征,NLP与CV任务基于多模态文本与图像像素特征,可以较好的实现模型在不同任务之间的复用与迁移。替换ID特征、基于模态内容实现不同系统与平台之间的迁移是该阶段的主流方向。这一阶段的代表性工作有TransRec [4]、MoRec [5](SIGIR2023)、AdapterRec [6](WSDM2024)、NineRec[7]等。另外,同时期的工作还有人大赵鑫老师团队UnisRec以及张永峰老师团队的P5。

TransRec是首个研究混合模态迁移的推荐系统模型,也是首次考虑图像像素的迁移学习模型。TransRec采用端到端训练方式,而不是直接抽取离线item多模态表征。与基于ID的序列推荐模型比较,经过finetune的TransRec可以有效提升推荐结果。TransRec证实了大规模数据上利用混合模态信息预训练可以有效学习用户和物品的关系,并且可以迁移到下游推荐任务,实现通用推荐,论文还研究了scaling effect效果,并会发布多套多模态数据集。与TransRec同时期的工作是人大赵鑫老师团队UnisRec,UnisRec主要聚焦text模态。

MoRec首次系统性回答了使用最先进的模态编码器表征物品(MoRec)是否能取代经典的itemID embedding范式(DRec)这一问题。论文基于MoRec与IDRec的公平比较展开:如果在冷热场景下MoRec都能打败IDRec,那么推荐系统将有望迎来经典范式的变革。这一观点来自于MoRec完全基于物品的模态信息,此类内容信息天生具有迁移能力,论文通过扎实的实验系统性证明了MoRec有潜力实现通用大模型。结论一,对于时序推荐架构SASRec,在常规场景(既有热item也有一部分冷item),MoRec在文本上明显优于IDRec,而在图片上则和IDRec效果相当。

在冷启动场景,MoRec大幅优于IDRec,在热门商品推荐场景,MoRec和IDRec效果相当。结论2:MoRec为推荐系统和NLP、CV等多模态社区建立了联系,而且一般来说,可以很好的继承NLP和CV领域的最新进展。结论3:工业界流行的Two-stage离线特征提取推荐方式会导致MoRec性能显著下降(特别是对于视觉推荐),这在实践中不应该被忽视。同时,尽管多模态领域的预训练模型在近年来取得了革命性的成功,但其表征还没有做到通用性和泛化性,至少对于推荐系统是这样(MoRec论文也被Google DeepMind团队邀请给了一个talk,Google researcher对该工作评价非常高)。受此启发,近期已经出现很多相关工作。

AdapterRec首次系统性讨论了基于模态信息的高效迁移方法。论文评估了基于适配器(Adapter)的模型补丁。与以往工作在下游迁移时微调全部参数不同,AdapterRec在迁移时在模型网络中插入并仅微调适配器网络。论文在大规模文本、图片模态数据上进行了丰富的验证实验。结果表明,基于文本、图片模态的适配器都可以实现良好的迁移效果。基于文本模态时,适配器技术可以在微调极少量参数的计算成本下实现与微调全部参数相近的迁移结果。AdapterRec证实了基于适配器技术的高效迁移方法是实现通用推荐系统大模型的重要环节。

NineRec提出了迄今为止推荐系统领域规模最大最多样的多模态迁移学习数据集。论文延续MoRec与IDRec公平比较的原则,系统性评估了MoRec的迁移能力并给出详见的指导建议与评估平台。NineRec提供了一套大规模预训练数据集和九个下游场景数据集,其中仅预训练数据集就包含200万用户、14万物品以及近2500万条交互记录信息。论文设计大规模实验评估了多种经典推荐架构(SASRec, BERT4Rec,NextItNet,GRU4Rec)与物品编码器(BERT, Roberta, OPT, ResNet, Swin Transformer)的迁移表现,并验证了端到端迁移(End-to-End)与两阶段迁移(Two-stage)对于迁移推荐的影响。

实验结果表明,利用端到端训练技术可以极大程度上激发模态信息的潜能,仅使用经典框架如SASRec即可超越近期同类型可迁移推荐模型。论文还验证了基于纯模态信息的zero-shot迁移能力。NineRec为基于模态的推荐系统迁移学习和推荐大模型发展提供了全新的平台和基准。NineRec(只有文本和图片模态)之后,团队联合发布了MicroLens [11] 数据集,是当前最大的短视频推荐数据集包含原始短视频,是其他相关数据集规模的数千倍,用户量达到3000万,点击行为达到10亿,可以用于训练推荐系统大模型。NineRec与MicroLens算力和数据集收集费用都超过百万人民币。

四、基于LLM的可迁移推荐系统

当下人工智能领域进入大模型时代,越来越多的通用大模型在各个领域被提出,极大的促进了AI社区的发展。然而大模型技术在推荐系统领域应用还处于早期阶段。诸多问题并没有得到很好的回答,如利用大语言模型理解推荐任务是否能大幅超越原有的ID范式?是否越大规模参数的大模型网络可以带来通用推荐表征?回答这些问题是推动推荐系统社区进入大模型时代的敲门砖,受到了越来越多科研团队的关注。这里主要介绍P5[8]和GPT4Rec[9],P5是采用LM作为推荐backbone,而GPT4Rec则是极限地评估1750亿的item encoder表能能力, 后续工作也非常多(例如基于prompt,基于chain of thought,基于ChatGPT等),例如同时期的工作还有Google的LLM for rating prediction[10], 与GPT4Rec类似,都是采用迁移模型评估性能极限,一个专注top-n item推荐,一个专注rating prediction。

P5提出了一种基于文本模态的多任务大模型框架,将多种经典推荐任务转化为统一的自然语言理解任务,包括序列推荐、评分预测、推荐理由、摘要以及直接推荐等多种任务。模型设计上,P5通过基于提示(prompt)的自然语言格式来构建任务,将这些相关的推荐任务统一为序列到序列(seq-to-seq)框架中进行学习。数据方面,P5将各种可用数据,例如用户信息、物品元数据、用户评论以及用户与物品的互动数据转化为自然语言序列。丰富的训练数据产生了满足个性化推荐需求的语义信息。

GPT4Rec首次探索了使用百亿规模大语言模型作为物品编码器。论文提出并回答了几个关键性的问题:(1)基于文本的协同过滤推荐算法(TCF)的性能随着物品编码器参数量不断增加表现如何?是否在千亿规模能达到上限?(2)超大参数的LLM,如175B参数GPT-3,是否能产生通用的item表征?(3)基于公平比较, 装配了175B参数量的LLM的推荐系统算法能否打败基于ID的经典算法(4)基于LLM的TCF算法距离推荐系统通用大模型还有多远?

实验结果表明:(1)175B的参数LM可能还没有达到其性能上限,通过观察到LLM的参数量从13B到175B时,TCF模型的性能还没有收敛。这一现象表明将来使用更多参数的LLM用作文本编码器是有带来更高的推荐准确性的潜力的。(2)即使是由极其庞大的LM(如GPT-3)学习到的物品表示,也未必能形成一个通用的表征。在相应的推荐系统数据集微调仍然对于获得SOTA仍然是必要的,至少对文本推荐任务来说是如此。(3) 即使采用175B和微调的66B的语言模型,当使用DSSM作为推荐骨架时,TCF仍然很大程度的劣于IDRec,但是对于序列推荐模型,LLM即便采用冻住的表征,也基本可以跟IDRec相媲美。(4)虽然装配了175B参数量LLM的TCF模型的表现优于随机采样的item的推荐,甚至达到了6-40倍的提升。但与在推荐数据上重新训练的TCF模型相比,它们仍然有巨大的差距。另外,论文发现(5)ChatGPT在典型的推荐系统场景与TCF相比表现存在较大的差距,文章猜测需要更加精细的prompt,ChatGPT才有可能用于某些真实推荐场景。

五、总结

目前推荐系统社区内,基于模态内容的大模型研究仍处于起步阶段:(1)基于传统的ID的推荐算法难以解决模态场景问题; (2)已有的基于模态内容的跨域推荐系统文献通用性较低; (3)非端到端的联合训练提取的特征可能存在粒度尺度不匹配等问题,通常只能生成次优的推荐水平; (4)社区缺少包含模态内容的可用于迁移学习研究的大规模公开数据集,缺少基准和排行榜(leaderboard); (5)已有文献中的推荐系统大模型参数量和训练数据太小(相对于NLP与CV领域),缺少开源的推荐系统大模型预训练参数。

参考文献

[1] Parameter-efficient transfer from sequential behaviors for user modeling and recommendation (SIGIR2020) [2] One Person, One Model, One World: Learning Continual User Representation without Forgetting (SIGIR2021) [3] Learning transferable user representations with sequential behaviors via contrastive pre-training (ICDM2021) [4] TransRec: Learning Transferable Recommendation from Mixture-of-Modality Feedback. Arxiv2022/06 [5] Where to Go Next for Recommender Systems? ID- vs. Modality-based Recommender Models Revisited (SIGIR2023) [6] Exploring Adapter-based Transfer Learning for Recommender Systems: Empirical Studies and Practical Insights (WSDM2024) [7] NineRec: A Suite of Transfer Learning Datasets for ModalityBased Recommender Systems. Arxiv2023/09 [8] Recommendation as Language Processing (RLP): A Unified Pretrain, Personalized Prompt & Predict Paradigm (P5) (Recsys2022) [9] Exploring the Upper Limits of Text-Based Collaborative Filtering Using Large Language Models: Discoveries and Insights. Arxiv2023/05 [10] Do LLMs Understand User Preferences? Evaluating LLMs On User Rating Prediction. Arxiv2023/05 [11] A Content-Driven Micro-Video Recommendation Dataset at Scale. Arxiv2023/09

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2023-11-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习与推荐算法 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、可迁移推荐系统发展历程
  • 二、基于ID的可迁移推荐系统
  • 三、基于模态信息的可迁移推荐系统
  • 四、基于LLM的可迁移推荐系统
  • 五、总结
  • 参考文献
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档