发布于: 2024-4-26最后更新: 2024-4-26字数 00 分钟

type
status
date
slug
summary
tags
category
论文链接
代码链接
Huggingface Demo
😀
传统的推荐系统主要依赖用户-物品的评分历史,依赖协同过滤。生成模型最近已经发展出模拟和抽样复杂数据分布的能力,这不仅包括用户-物品交互历史,还包括文本、图片和视频——这为新颖的推荐任务提供了更丰富的数据。这篇综述包括:交互驱动生成模型的基础概述;大型语言模型(LLM)在生成推荐、检索和对话推荐中的应用;以及在RS中处理和生成图像与视频内容的多模态模型的整合。

1. 生成模型的应用

传统推荐系统依赖于在特定领域捕捉用户偏好和物品特征,被称为“narrow experts”。现代生成模型能学习表示和抽样复杂数据分布,包括用户-物品交互数据、文本、图像、甚至视频内容。此外,通过引入如ChatGPT和Gemini等大语言模型,提高了NLP在少样本推理等场景的性能,并支持访问更广泛的开放世界信息,为推荐应用开辟了一个激动人心的新研究领域,RS的两种主要应用模式成为可能:
  • 直接训练模型:例如利用变分自编码器(VAE)直接在用户-物品互动数据上训练,预测用户偏好。
  • 预训练模型:使用多模态数据(如文本、图像、视频)预训练模型,来理解复杂的模式和关系,如零样本或少样本提示(Zero- and Few-shot Prompting)、微调(Fine-Tuning)和检索增强生成(Retrieval-Augmented Generation)等。

2. 交互驱动的生成模型

基于交互的推荐模式仅利用用户与物品之间的交互数据(例如,“用户A点击物品B”),深度生成模型(DGMs)在这一领域展现了独特的效用。例如,DGMs可以增强用户-物品交互数据以训练模型,使用去噪技术进行推荐,以及学习推荐布局的分布。
  1. 自编码模型(Auto-Encoding Models)
      • 去噪自编码模型(Denoising Auto-Encoding Models):这些模型学习从损坏的输入中恢复原始输入。例如,AutoRec尝试重构部分观察到的输入向量。类似BERT的模型也被视为去噪自编码模型,它们通过堆叠的自注意力块恢复被掩码的输入,如BERT4Rec预测用户历史交互序列中的掩码项。
      • 变分自编码模型(Variational Auto-Encoding Models,VAEs):VAEs学习从复杂的概率分布𝑝中的输入𝑥到简单概率分布𝑞(如正态分布)的随机映射,并通过从𝑞采样来使用解码器生成输出。VAEs在传统RS中应用广泛,尤其是在协同过滤、序列推荐和列表生成中。与去噪自编码模型相比,由于模型假设更强,VAEs在协同过滤中表现更佳,如VAE-CF。此外,条件VAE(CVAE)学习给定用户的首选推荐列表的分布,用于生成整个推荐列表而不仅是排名单个物品。
       

小米安卓开发岗面经
小米安卓开发岗面经
2021-NBFNet论文精读
2021-NBFNet论文精读