随着以 ChatGPT 为代表的大模型的技术的迅速发展,推荐系统也正在经历着一场革命性的变革。传统的推荐系统主要基于用户的历史行为数据进行预测,大模型技术的出现,为推荐系统带来了更强的泛化能力和更高的效率,解决了传统推荐系统中的一些难题,如用户和物品数量的巨大规模、不可观测因素对推荐的影响等。同时,大模型推荐技术也带来了新的挑战,如模型的可解释性和隐私保护问题。这篇文章我们将探讨和梳理行业内 LLM 和推荐系统结合的前沿进展,若有不正确的地方欢迎批评指正~  
 

一、定义与背景:大模型与推荐系统的核心概念

第一部分先介绍下推荐系统和大模型技术及大语言模型给推荐系统带来的机会。

1.1 推荐系统

定义

推荐系统的本质是在用户需求不明确的情况下,通过拟合历史用户行为数据,来预测未来用户的感兴趣信息的技术手段。推荐系统的数学公式可以抽象为:

✍️

F(User,Item,Context) —> Preference

  • 用户层(User):用户规模大(数以亿计),用户行为多样(千人千面),且受到很多推荐系统不可观测的外界因素的影响,导致建模困难。

  • 物料层(Item):Item 之间的关联是很小众的,不易被捕获(共现频次低)

  • 上下文(Context):包括用户访问推荐系统的时间、地点和心情等,这些上下文信息对提升推荐系统的预估准确性非常重要。

经典算法

推荐系统的经典算法包含 3 类型:1)基于内容的推荐算法(Content-Based,CB)、2)协同过滤推荐算法(Collaborative Filtering,CF)3)混合推荐算法;

1)基于内容的推荐算法(CB):基于内容的推荐算法充分利用 User 信息、Item 特征生成推荐项,向目标用户推荐与其过去喜欢内容相似的 Item。基于内容推荐的核心步骤:

2)协同过滤推荐算法(CF):协同过滤推荐算法是推荐系统中最流行的推荐算法,它充分利用用户的历史行为数据来生成推荐项,协同过滤是建立在这样的假设基础上的,如果用户 X 和 Y 对 T 个项目进行相似的评分,或者有相似的行为(例如购买、观看、聆听),那么用户就会对其他项目进行类似的评分或行为。

3)混合推荐算法:混合推荐技术融合了基于内容的过滤和协同过滤算法中两种或两种以上推荐技术的特点,从而利用每种技术的优势,提高性能。混合推荐技术非常有用,因为它可以克服传统推荐方法的大多数限制,将它们组合起来以获得更好的结果。

推荐系统效果评价指标

  • 准确度:推荐系统推荐物品与用户实际喜欢的物品的匹配程度。

  • 多样性:推荐列表中内容异质性程度,通过推荐多样的内容给用户更多机会发现新内容。

  • 覆盖率:推荐系统中推荐物品的数量与系统中所有物品的比例。

  • 惊喜度:推荐和用户历史喜欢的物品不相似的物品,但是用户却觉得满意的推荐。

  • 实时性:实时地更新推荐列表来满足用户新的行为变化。

1.2 大模型模型 LLM(NLP 新范式)

ChatGPT 发布以来,大模型成为人人熟知的名词,它为 NLP 带来了新的范式,即预训练模型 + 微调 + Prompt 模式。这一模式取得了非常惊艳的效果。

人们意识到原来可以有这样一个模型具备很强的泛化能力,出现“涌现”现象,简单来说就是大模型学习到一个任务后,它能够做到举一反三;同时具备任务规划能力,能够切分简化任务。

1.3 推荐为什么要用大模型?- Why

推荐为什么要用 LLM 呢?我们先围绕场景、知识来源、知识类型等维度对比下推荐和大模型。

大模型

传统推荐系统

场景

通用模型,one for all

千人千面、领域各异

知识来源

字词文本(十万),开放世界可被数字化的所有信息

物品(百万、千万),系统内产生的用户行为信息,系统内的用户、商品、场景信息

知识类型

文本、图片、视频、音频等不同模态信息

代表用户行为的 ID 类信息,以及结合化的用户、商品描述性信息、统计类信息

参数规模

千亿、万亿(计算复杂度高)

Scaling Law

亿级别

特征参数占比大,不具备 Scaling Law

知识特点

开放、来源广、总量大。但接触不到推荐系统内的私域信息,缺失用户行为信息

封闭、结构化、经过筛选。但难以学习到开放世界的外部知识

学习范式

Pretrain-finetuning、Prompt-learning、instruction-tuning

Online Learning

模型能力

引入外部世界知识,语义信号丰富;

可解释性强、冷启动友好、具备跨域知识;

缺少协同信号;

缺乏语义知识、推理能力及可解释性;

过拟合场景数据、bias、冷启动问题;

可以充分利用协同信号

概括来说,LLM 给推荐系统带来的机会主要围绕以下几方面:

  • 表示:利用大模型的表示能力,完善物品理解、用户建模。传统的推荐系统都是基于 ID 的,也就是每个新来的 Item 都必须具备一个 ID,然后根据这个 ID 去学习 Item 的表征,最后通过学习到的表征去做推荐。但是如果存在一个通用模型能够把语言理解的非常好,可以考虑把 ID 去掉,然后直接通过语言去描述 Item,直接得到 Item 描述的文本表征作为 Item 的表征。

  • 泛化:少/零样本推力、跨域泛化能力、世界知识... 目前这一领域开展的工作可以总结为两个方向:

    • 使用文本统一标识,解决依赖 ID 的问题,这样就可以忽略 cross domian 和 costar 这样的问题,包括很多长尾问题也可以得到很多的解决。

    • 使用 Prompt 统一任务,这样就可以做到 Open Ending Task,使用训练好的语言模型去做大跨域,最终得到一个 open ending task and domains 的基础模型。

  • 生成:个性化内容生成、生成式推荐... 整合用户历史行为(如点击、购买、评论等)和 LLMs 生成用户偏好的物品。

二、机会与挑战:大模型给推荐系统带来的机会和挑战

将 LLM 涌现的能力迁移应用到推荐系统中,利用 LLM 的通用知识来辅助推荐,改善推荐效果和用户体验。在第二部分我们将围绕大模型结合推荐系统的机会、行业研究进展、融合挑战进行探讨。

2.1 基于 LLM 的推荐系统的优点

基于大模型的推荐系统的优点主要包括:

  • 特征表示学习:大模型可以通过深度学习等技术来学习更复杂、更有效的特征表示。传统的推荐系统可能会使用手工设计的特征,而大模型可以自动从海量数据中学习到更丰富的特征表达,从而提高推荐的准确性。

  • 模态信息融合:对于包含多种类型数据(例如文本、图像、音频)的推荐任务,大模型可以同时处理不同模态的数据,从而更好地把握用户的兴趣偏好。通过融合多模态信息,可以提供更个性化、多样化的推荐结果。

  • 上下文建模:大模型可以用于构建对话式推荐系统,通过与用户进行实时的交互来获取更准确的用户意图和反馈。这种交互式推荐可以进一步提高个性化程度和用户满意度。

  • 对话交互:大模型可以用于构建对话式推荐系统,通过与用户进行实时的交互来获取更准确的用户意图和反馈。这种交互式推荐可以进一步提高个性化程度和用户满意度。

  • 强化交互:结合大模型的强化学习技术,可以实现通过与用户的交互不断优化推荐策略。通过引入奖励机制和长期回报考虑,推荐系统可以逐步学会更好的平衡短期和长期目标,提供更符合用户需求的推荐结果。

2.2 LLM 与推荐系统融合挑战

融合挑战

大模型与推荐系统融合的难点主要集中在数据处理环节,包括以下几个方面:

  • 任务类别有差异:大模型预训练阶段缺乏推荐相关数据,不会推荐任务。

  • 信息模态有差异:大模型难以捕捉到推荐需要的协同信息,做不好推荐。

  • 训练效率:大模型通常需要大量的数据进行训练,而推荐的数据量通常非常庞大,包括用户行为数据、物品特征数据、以及其他辅助数据。

  • 推理延迟:大模型的推理过程通常需要较长的时间,而推荐系统需要实时生成推荐结果。

  • 公平性问题:大模型在训练过程中可能会受到训练数据中偏差的影响,从而导致推荐结果存在公平性问题。

优化方向

  • 任务类别有差异:对齐推荐任务,通过指令微调等方式让大模型学会推荐任务能够做推荐。

  • 信息模态有差异:通过信息对齐,让大模型理解协同信息,有效地索引和建模 ID 类特征,例如用户 ID、物品 ID 等,能够把推荐做的更好。

  • 训练效率:可以采用更有效的优化算法,以及更高的数据处理技术,如分布式训练、数据压缩、以及模型剪裁等技术来提高大模型的训练效率。

  • 推理延迟:可以采用更高效的模型结构、以及更高效的推理算法来降低大模型的推理延迟,如模型加速、模型剪裁、以及模型压缩等技术来降低大模型的推理延迟。

  • 公平性问题:可以采用数据增强、以及模型正则化等技术提升大模型推荐结果的公平性。

2.3 推荐如何与大模型结合?- Where

从推荐系统流程视角出发,将 LLM 应用拆解到推荐系统的各个模块:

  • 数据采集阶段:线上收集用户的行为和记录,得到原始记录(大模型可以生成新的内容)。

  • 特征工程阶段:对原始数据进行筛选、加工、增强,得到可供下游深度模型使用的结构化数据。

  • 特征编码阶段:对结构化数据进行编码,一般是我们常说的 Embedding 层,例如 One-Hot Encoding。

  • 打分排序阶段:对候选集进行评分、排序,返回一个推荐列表,通常会包含多个阶段(召回、粗排、精排、混排等)。

  • 流程控制器:推荐整体的流程控制。

从推荐系统排序漏斗拆解来看,LLM 和推荐系统的结合方式包含:

1)丰富用户互动/反馈 — Enrich user interactions/feedbacks 

2)允许重新利用和生成内容 — Permit re-purposing and generation of contents

3)支持外部 Item 的检索和排序 — Support retrieval/ranking of external items 

4)基于生成式模型基座的推荐系统 — Generative models for Recommendation 

5)负责任的推荐系统,多样性、可解释性、更智能、公平性、可信性 — Perform Trust evaluation | AI Checker 

2.4 运用大模型的实践参考?

这部分我们介绍下目前行业内前沿的一些实践,每部分附对应的论文地址。

LLM for feature engineering|用大模型做特征工程

✍️

用大模型做特征工程:利用 LLM 的外部通用知识和逻辑推理能力,主要是利用大模型的 In-Context Learning 能力。可以是将原始的输入信息生成额外的辅助信息(对 item 或 user 的描述、标签、知识图谱补全),也可以是直接让大模型进行排序 or 重排。

GPT4Rec

GPT4Rec: A Generative Framework for Personalized Recommendation and User Interests Interpretation:https://arxiv.org/abs/2304.03879

当前推荐模型通常用 ID 来表征商品 Item,并使用判别式模型。这种模式存在以下不足:

  • 未能充分利用 Items 的内容信息和 NLP 模型的语言建模能力。

  • 无法充分解释用户兴趣,以提升推荐的多样性、相关性。

  • 实际使用时存在限制,如商品的冷启动等数据稀疏问题。

这篇论文提出的 GPT4Rec 是一个受搜索引擎启动的灵活的生成式框架,核心的结构如下:

  • 给定用户的商品交互序列,GPT4Rec 通过提示(Prompt)对商品标题进行格式化,并使用生成语言模型(GPT-2)学习语言空间中的商品和用户 Embedding。

  • 模型会生成表示用户兴趣的多个 Query(查询),这些 Query 将被提供给搜索引擎(BM25),以检索待推荐的商品。

LLMRec

LLMRec: Large Language Models with Graph Augmentation for Recommendation:https://arxiv.org/pdf/2311.00423

LLMRec 是港大和百度研究人员提出的一种利用大型语言模型(LLMs)增强推荐系统的框架。该框架旨在解决推荐系统中的数据稀疏性问题,通过借用 LLM 的强大世界知识的推理能力,来辅助生成增强信息。LLMRec 的增强方式为:

  • 数据增强:如下图输入用户历史行为的 Side Info,通过 LLM 构建 Prompt 的方式输出用户喜欢/不喜欢的商品。通用大模型对候选池的内容进行二次筛选,一定程度减轻了原始隐式反馈信号中存在的噪声(如误触、潜在物品)。

  • Side Information 增强:通过 prompt 生成 user Profile 和 item attribute,接着将生成的 user profile 和 item attribute 通过 LLM 得到 embedding 表征,最后将编码作为推荐系统 user/item 的 feature 叠加融入到原始 ID 的 Embedding 上。

为了确保 LLM 增强数据的可靠性,LLMRec 还引入了去噪机制,包括噪声隐式反馈修剪和基于掩蔽自编码器(MAE)的特征增强技术。这些方法帮助提高数据质量和模型鲁棒性。

LLM for feature encoder|用大模型的通用表达能力做特征编码

✍️

使用大模型的通用语义表达能力进行编码,弥补传统推荐系统的信息缺失(例如文本等),进一步丰富 user/item 侧语义表征。

UniSRec

Towards Universal Sequence Representation Learning for Recommender Systems:https://arxiv.org/pdf/2206.05941

在推荐系统中,序列推荐是一项广泛研究的任务,旨在根据用户的历史交互记录向用户推荐兴趣项目。在推荐方向上,从早期的矩阵分解(例如,FPMC)到最近的序列神经网络(例如,GRU4Rec、Caser和 Transformer),这些方法在很大程度上提高了顺序推荐的性能标准。但是现有的工作多基于 item id,这导致其很难迁移到新场景。论文提出了 UniSRec 编码架构,给定用户在多个域的历史行为序列,学习到 item 和序列的 universal 表征,并将其用于新场景中。

UniSRec 的框架示意图如下:通过预训练方式建模通用 Item 表征和通用序列表征,进而学习跨不同推荐场景的可迁移表征。

  • 通用物品表示学习:输入用户交互 Item 的文本描述序列,由于不同 Domain 差异巨大,因此将不同的 Domain 的行为作为不同的序列。接着将文本序列送入 PLM 学习 Embedding 表征。

  • 序列表示学习:由于存在域间差异,简单的将不同域序列表征混合起来不会有很好的效果(多个域学习到的表征可能存在冲突),因此,在传统的 Self-Attention 网络的基础上引入两个对比任务:Sequence-item 和  Sequence-sequence,缓解了多领域序列表征之间的融合。

  • 参数高效微调:固定模型主要在架构参数,在 domain transfer 时仅微调 MoE 的参数。

MoRec

Where to Go Next for Recommender Systems? ID- vs. Modality-based Recommender Models Revisited:https://arxiv.org/pdf/2303.13835

论文的核心议题为:纯基于多模态的大模型推荐系统 MoRec(modality-based recommendation model) 能否比纯基于 ID 的模型IDRec(e ID-based model) 效果好?IDRec 使用唯一的 ID 标识用户和 Item,使用这些用户与其交互的 Item 数据学到的模型。当前推荐系统基本都是采用这类模型。此类方式的缺点主要为:

  • 高度依赖 ID 的交互,当用户和 Item 交互比较少的时候,存在冷启动问题。

  • 跨平台迁移性不好,这样无法运用到大模型,发挥大模型的优势。

  • 无法利用其他领域(NLP/CV)的最新大模型的进展

  • 在可解释性及可视化方面有相对明显的缺陷

论文作者指出之前的工作有尝试将 NLP/CV 预训练模型引入推荐系统,但往往都是在冷启动和新物品的场景,随着 Bert、GPT、ViT 的发展,基于多模态的推荐还是大有可为。如果在非冷启动场景,MoRec 也可以打败 IDRec,那么推荐系统将有望迎来经典范式的变革。

该文章为了验证设想,对推荐系统社区两种最具有代表性的推荐架构进行了评估,分别是最经典的双塔 DSSM 模型(代表 CTR 范式)和 SASRec 模型代表时序或者会话推荐)。SASRec采用最为流行的 Transformer 架构。以下为作者提出的猜想及验证结论。

  • Q1:在常规场景(非冷启动)中,MoRec 能够打败 IDRec 吗?

  • A1:对于时序推荐架构 SASRec,在常规场景 MoRec在文本上优于 IDRec,而在图片上和 IDRec 效果相当。在冷启动场景,MoRec 大幅优于 IDRec,在热门商品推荐场景,MoRec 和 IDRec 效果相当。这些积极特性表明,推荐系统很有可能采用 MoRec 替代 IDRec。

  • Q2:对于推荐场景,NLP、CV 的预训练模型产生的表征有足够的通用能力吗?我们应该怎样使用预训练模型生成的表征?

  • A2:工业界流行的 Two-stage 离线特征提取推荐方式会导致 MoRec 性能显著下降(特别是对于视觉推荐),这在实践中不应该被忽视。这里的验证数据同时表明,尽管多模态领域的预训练模型在近年来取得了革命性的成功,但其表征还没有做到通用性和泛化性,至少对于推荐系统是这样。

LLM for scoring function|用大模型作打分工具

✍️

将大模型作为打分工具,得到最终排序好的候选 List。通常是通过直接利用 LLM 的 zero-shot 能力或者在 LLM 训练中引入相关任务来实现,可以分为 2 种研究方向:

  • 候选打分:一种方式是 user/item 特征过 LLM 后再过一层网络得到最终的 score;另一种是直接将 LLM 训练为输出最终 score 的模型;

  • 候选生成:直接生成好排序的列表(非常考验 LLM 的推理能力);

候选打分

Recformer

Text Is All You Need: Learning Language Representations for Sequential Recommendation:https://arxiv.org/pdf/2305.13731v1

本文是针对序列推荐所提出的相关方法,以往的方法都是依赖用户交互的商品 ID 序列来反映用户偏好,但是遇到冷启动问题的时候会难以应对。本文用自然语言的方式对用户偏好和商品特征进行建模:将商品表示为“句子”(单词序列),从而使用户的商品序列变成句子序列;作为推荐,Recformer 被训练来来理解“句子”序列并检索下一个“句子”。为对商品序列进行编码,作者设计一个类似于 Longformer 模型的双向 Transformer,但具有不同的嵌入层,用于顺序推荐。为了有效的表示学习,我们提出了新的预训练和微调方法,将语言理解和推荐任务相结合。因此,Recformer 可以根据语言表示有效地推荐下一个项目。

以上为 RecFormer 序列化推荐模型的结构:

  • 模型 Input:对 Item 进行表示,对 User 进行表示,构造用户序列时按时间由近到远排列,避免最近交互的行为被截断。

  • 模型嵌入层:在输入到 Transformer 之前,模型的 Input 会转化为 4 种 Embedding 形式,以此让模型能够从语言理解和序列模式两方面感知模型的输入文本。这 4 种 Embedding 融合了语言模型和序列推荐模型中的 Embedding 层。

    • Token Embedding:NLP 中单词 Embedding 表征;

    • Token Position Embedding:对输入单词的位置进行编码;

    • Token Type Embedding:用于区分当前单词属于哪个类别,有 [CLS]、Key 和 Value 三类;

    • Item Position Embedding:由于每一个商品被拆分成单词,我们需要知道哪一部分属于同一商品;

  • 模型 Encoder Longformer:获得了模型输入 X 的嵌入层结果 EX 后,对 EX 进行编码,采用基于 Longformer 的Transformer 结构,其中 [CLS] 包含了全局注意力,其他位置都是局部窗口注意力。Recformer对

  • 预测:预测方面和之前的方法类似,通过计算 user 的表示 hs 和 item 的表示 hi 之间的相似度来获得 user 和 item之间的得分,这里用的是 cosin 相似度。在 item全 集上进行得分的计算,对得分进行排序,得分最高的 item 作为对下一个用户可能进行交互的 item 的预测。

候选生成

PALR

PALR: Personalization Aware LLMs for Recommendation:https://arxiv.org/pdf/2305.07622

PALR (Personalization Aware LLMs for Recommendation)是一个基于 Prompt 设计的大模型推荐系统框架,旨在整合用户历史行为(如点击、购买、评论等)和 LLMs 生成用户偏好的 Items,从而提高推荐能力。该方法与目前方法不同的之处在于 PALR 通过微调 70 亿级别的 LLM,并将微调整之后的 LLM 作为生成推荐的排序模型。这种方法能够将用户行为数据纳入 LLM 的推理过程,更好的泛化新用户和新物品。

PALR 通过构造自然语言的 Prompt,把所有用户的行为历史、用户画像、候选物品列表的信息都告诉大模型,让大模型根据这些输入信息进行候选物品的排序并得出最终的推荐列表,经过指令微调,PALR 在公开数据集上显著超过传统推荐模型 baseline。

LLM for pipeline controller|通用大模型做推荐整体流程控制

✍️

随着 LLM 参数越来越大,涌现出小模型所不具备的能力(in-context learning、logical reasoning 等),于是可以通过大模型进行推荐系统整体的流程控制,也可以称为 Agent。

Chat-REC

Chat-REC: Towards Interactive and Explainable LLMs-Augmented Recommender System:https://arxiv.org/pdf/2303.14524

推荐系统已被广泛部署用于自动推断人们的偏好并提供高质量的推荐服务。然而大多数现有的推荐系统仍面临诸多缺陷,例如缺少交互性、可解释性,缺乏反馈机制,以及冷启动和跨域推荐。

本文中提出了一种用 LLMs 增强传统推荐的范式 Chat-Rec(ChatGPT Augmented Recommender System)。通过将用户画像和历史交互转换为 Prompt,Chat-Rec 可以有效地学习用户的偏好,它不需要训练,而是完全依赖于上下文学习,并可以有效推理出用户和产品之间之间的联系。通过 LLM 的增强,在每次对话后都可以迭代用户偏好,更新候选推荐结果。将用户与物品的历史交互、用户画像、用户查询和对话历史(如果有的话)作为输入,需要的话也可以调用传统推荐系统接口。以下是该框架所实现的四个增强推荐系统优化效果:

  • 用户资料和历史互动的转换:Chat-Rec将用户资料和历史互动转化为提示,使LLMs能够学习用户的偏好,并建立用户与产品之间的联系。

  • 候选集压缩:通过LLMs对推荐系统生成的庞大候选集进行筛选和排序,以提供更相关的产品推荐。

  • 冷启动推荐:利用LLMs对新产品进行推荐,通过文本描述和资料信息建立产品之间的联系,解决冷启动问题。

  • 跨域推荐:LLMs预训练的知识使其能够作为多视角知识库,实现跨域推荐。

RecMind

RecMind: Large Language Model Powered Agent For Recommendation:https://arxiv.org/pdf/2308.14296

论文提出了一个推荐智能体 RecMind,充分利用大模型的推理能力和工具调用能力。主要包括三个模块:Planning、Memory、Tools。为了提高 Agent 的 Planning 能力,作者提出了 Self-Inspiring(SI),在每次进行中间计划时,Agent会“自我激励”来考虑先前所有探索过的规划路径然后探索下一个规划状态。与 CoT(Chain-of-Thought)和ToT(Tree-of-Thought)在生成新状态时丢弃已探索路径中的状态不同,SI 在生成新状态时会保留所有历史路径中的先前状态。RecMind 整体架构如下图所示:

  • Planning:Planning 模块将整体推荐任务划分成更小的、便于管理和执行的子任务。设需要解决的问题为 x ,目标解决方案为 y ,规划模块的功能为通过 planning 方法输入 y: y∼pθ(y|planning(x)) 。Planning(x) 是一组提示,将x分解为一系列子任务,子任务由 thought h、action a、observation o 组成。

  • Memory:记忆模块存储两部分信息:个性化记忆和世界知识。(相较于后来的复杂 Agent,RecMind 的 Memory只是简单的存储用户偏好和物品信息以及通过 Web 搜索到的实时信息,并不涉及到反射等机制,反射等机制似乎只在模拟用户情形下才需要。)个性化知识包括数据集中用户的个人信息,如对物品的评论、评分。世界知识包括物品的元信息以及通过搜索引擎访问到的实时信息,帮助推理路径。

  • Tool Use:通过LLM的工具调用能力,Agent 可以访问更大的动态知识库以处理更复杂的任务。作者在 RecMind 系统中整合了三种工具:数据库工具、搜索工具、文本总结工具。

LLM as Recommendation System|基于大模型的生成式推荐

Actions Speak Louder than Words: Trillion-Parameter Sequential Transducers for Generative Recommendations

https://arxiv.org/abs/2402.17152

一、Motivation(动机)

 受到近期大语言模型成功的启发,Meta 团队重新审视了传统的推荐系统范式,数十亿用户规模的推荐系统所面临的三类主要挑战:

  • 特征缺乏显式结构:海量异构特征,如高基数 ids、交叉特征、计数特征、比例特征等。

  • 需要处理数十亿级别的动态词汇表::如 ID/属性等。与语言模型中的 10 万量级静态词汇形成了鲜明对比。这种数十亿级别的动态词汇表不断变化,给训练带来很大挑战;且线上需要以目标感知 target-aware 的方式给数以万计的候选集打分,推理成本巨大。

  • 计算成本是限制落地的最大瓶颈:在 1-2 个月的时间内使用数千个 GPU 进行了总计 300B tokens 的训练。从这个规模上来看,似乎令人望而却步,但与推荐系统用户行为的规模相比就相去甚远了。最大的互联网平台每天为数十亿用户提供服务,用户每天与数十亿条内容、图片和视频进行交互。在极端情况下,用户序列的长度可能高达 10^5。因此,推荐系统每天需要处理的tokens 数量甚至比语言模型在 1-2 个月内处理的数量还要大好几个数量级。

二、Solution(解决方案)

论文的亮点为,在重塑推荐系统的问题上,从推荐系统角度抽象通用假设的范式。

  • 将“用户行为”当作一种模态:传统非结构化的图片、视频、文本是模态;结构化的画像、属性也是模态;将用户行为定义为“新模态”,就能够实现海量词表所有模态间的充分交叉,无损信息输入。是这篇工作抽象出来“最妙”的点。

  • 在给定的合适的特征空间下,能够重塑推荐系统的核心召回、排序问题:如何将传统的海量异构特征做转换,转成生成任务输入格式也是非常基础和重要的步骤。本文文案也有可能成为生成式推荐系统的“标配”输入范式。

  • 在这一新范式下,能够让我们系统性的解决传统推荐系统中的特征冗余、计算冗余、推理冗余等关键性能瓶颈问题:节省大量的计算资源和耗时,提升整体推荐系统的效率。

2.5 如何运用大语言模型?- How

上文从 Where 的维度针对 LLM 在推荐系统中的工作进行梳理,下面从 How 的角度看大模型如何应用。从大模型训练和推理两个阶段出发,可以将现在的工作拆分为 4 个象限:

  • 训练阶段是否需要微调?

  • 推理阶段使用使用传统推荐模型?

  • 象限 1:相对较小的 PLM 用于语义特征提取,而后传统推荐模型用作后续推荐;

  • 象限 2:和象限1 比较像,不过使用了更大的语言模型,功能也不再局限于仅提供语义特征;比如更多的世界知识、推理能力、总结能力;

  • 象限 3:利用 LLM 的 zero-shot 能力直接来推荐,但由于缺乏推荐专业领域知识,效果一般;

  • 象限 4:通过对 LLM 的推荐数据训练(full-finetuning 或 PEFT 等)解决象限 3 的专业知识问题;

三、未来展望:技术融合的长期趋势

  • 推荐前:AI 生成音乐、视频;新交互形式下更深入理解用户意图;选择值得被推荐的内容;自动构建新场景可靠的大规模数据集。

  • 推荐中:新的用户行为分析与建模;新的“大语言模型 + 协同”的推荐范式;利用上下文信息增强大模型推荐;大模型推荐系统的推理与知识运用能力;负责任的推荐系统(多样、可解释性、公平、可信......);通用知识 + 垂直场景的集合;

  • 推荐后:扩展后的自动评价体系;反馈学习、反思;

     如何学习AI大模型?

    我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

    我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

    第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

    第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

    第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

    第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

    第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

    第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

    第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。


    👉学会后的收获:👈
    • 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

    • 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

    • 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

    • 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。


    1.AI大模型学习路线图
    2.100套AI大模型商业化落地方案
    3.100集大模型视频教程
    4.200本大模型PDF书籍
    5.LLM面试题合集
    6.AI产品经理资源合集

    👉获取方式:
    😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

    Logo

    火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

    更多推荐