程序员必看!检索增强生成 (RAG) 技术:一文搞懂挑战与关键技术
程序员必看!检索增强生成 (RAG) 技术:一文搞懂挑战与关键技术
一、RAG 2.0:技术演进与待解挑战
刚刚过去的2024年,被业界广泛视作“RAG元年”——检索增强生成技术在这一年实现了从概念探索到规模化落地的跨越式发展,其技术创新与场景渗透深度,彻底重构了大语言模型(LLM)在产业界的落地路径与技术范式。步入2025年,RAG已不再局限于早期单一的文本处理场景,而是通过多模态数据融合、混合检索策略优化、语义理解精度提升等关键突破,逐步渗透至金融、医疗、制造等垂直行业。若以2024年为分界点,此前以文本检索为核心的技术形态可定义为“RAG 1.0”,那么当前融合多能力、面向复杂任务的技术体系,标志着行业正式迈入“RAG 2.0时代”。
在RAG 2.0的演进过程中,“长上下文窗口”功能曾引发行业内的激烈讨论:2024年初,部分观点认为,随着LLM上下文窗口长度突破百万token,传统检索机制与RAG的价值将被削弱,甚至可能被直接取代。但随着实践深入,这种争议在年中逐渐平息——企业发现,长上下文虽能承载更多信息,却面临信息噪声过滤难、长文本推理效率低等问题,而RAG通过精准检索外部知识的特性,恰好能弥补这些短板。与此同时,LLMOps技术架构的成熟为RAG 2.0提供了底层支撑:矢量数据库的性能优化、嵌入模型与重排序模型的迭代、智能分块工具的普及,以及多模态技术(如图像、音频语义理解)的快速突破,共同推动了RAG技术的产业化落地。从学术领域来看,RAG相关的研究论文呈现爆发式增长,峰值时期每周新增数量突破30篇,这种“野蛮生长”的态势,也从侧面印证了RAG 2.0的技术热度与发展潜力。
如今,RAG已从实验室走向企业生产场景,在智能客服、知识管理、数据分析等领域发挥重要作用,但技术落地过程中仍面临诸多待解难题。本文将聚焦RAG 2.0的核心挑战与关键技术方向,首先系统梳理当前阶段亟待突破的六大核心问题:
1、多模态适配与复杂任务攻坚
RAG 2.0的核心目标之一是打破“文本依赖”,但当前技术体系在多模态处理与复杂推理上仍存在明显短板:
- 多模态支持局限:现有RAG技术以文本数据为核心,对图像、视频、音频等多模态数据的处理能力不足。例如,企业日常积累的PDF文档(含图文混排)、PPT演示文稿、工业场景中的设备监控视频等,无法通过现有RAG方案实现有效检索与知识提取——这些非文本数据占企业数据总量的60%以上,若无法充分利用,将大幅限制RAG的商业价值。
- 复杂推理能力不足:尽管RAG通过检索外部知识提升了LLM的推理基础,但在处理“多跳推理”(如“某公司2023年营收增长的核心原因,与其2022年收购的子公司业务有何关联”)、逻辑链较长的分析任务时,仍容易出现推理中断或结论偏差。这是因为当前RAG多采用“单轮检索+单次生成”模式,无法根据推理过程动态调整检索策略,导致关键中间信息缺失。
2、检索质量与噪声过滤难题
检索环节是RAG的“核心引擎”,其质量直接决定生成结果的准确性,但当前技术在检索精度、语义匹配、噪声过滤等方面仍面临多重挑战:
- 检索精度不稳定:RAG的性能高度依赖“查询-文档”的匹配精度,若检索到的文档与用户需求关联性低,甚至包含无关信息,会直接导致生成结果偏离预期。例如,在医疗问答场景中,若检索到的病例文档与患者症状的匹配度不足,可能引发诊断建议偏差。
- 语义鸿沟(Semantic GAP)显著:用户查询的模糊性、意图表达不明确,或多跳问题的“子问题拆分需求”,会导致“查询意图”与“检索结果”之间出现语义断层。例如,用户提问“如何解决新能源汽车冬季续航衰减问题”,其核心需求可能涉及电池保温技术、驾驶习惯优化等多个维度,但传统检索仅能匹配单一关键词文档,无法覆盖完整需求。
- 噪声数据干扰严重:企业知识库中常存在过时信息(如旧版产品参数)、重复内容(如不同部门提交的相似报告)、错误数据(如人工录入偏差),这些噪声会混淆LLM的推理逻辑,导致生成内容出现事实性错误。例如,若检索到某产品“2022年已停产”的旧信息,可能使模型误判该产品当前仍在销售。
- 召回率与命中率双低:单纯依赖向量数据库的检索方案,易因向量表示的“语义损失”导致召回率不足——即无法检索到所有相关文档。例如,在法律案例检索中,向量数据库可能因案例描述的措辞差异,遗漏核心法律条款相似的案例,导致生成的法律建议缺乏全面性。
3、生成环节的幻觉与冗余问题
即使检索到高质量信息,RAG在生成环节仍可能出现“幻觉”(虚构信息)与内容冗余,影响结果的可信度与简洁性:
- 幻觉现象未完全消除:尽管RAG通过外部知识检索大幅降低了LLM的幻觉概率,但在两种场景下仍易出现问题:一是检索到的信息不完整(如仅获取某事件的部分时间线),二是检索信息与查询需求的关联性较弱。此时模型可能基于自身训练数据“补充”虚构信息,例如在回答“某政策实施后的行业影响”时,因检索到的政策解读不完整,模型可能虚构不存在的政策细则。
- 内容冗余与重复:当检索到的多个文档包含相似信息(如不同来源的同一事件报道)时,模型可能在生成过程中重复表述相同观点,导致回答冗长。例如,在生成“某公司年度业绩总结”时,若检索到季度报告与年度报告中的重叠数据,模型可能重复罗列同一指标,影响阅读体验。
4、计算资源与效率平衡困境
RAG相较于传统LLM增加了“检索环节”,这使得其在计算资源消耗、推理延迟、实时性支持上面临更大挑战:
- 计算资源消耗高企:RAG的落地需要构建并维护向量知识库、部署向量化模型与重排序模型,这些环节均需大量计算资源支撑。例如,某中型企业构建包含100万份文档的向量库,仅向量化处理就需消耗数十GPU时,后续知识库的更新(如新增文档的向量化)还需持续投入资源。
- 推理延迟增加:传统LLM可直接基于内部训练数据生成结果,而RAG需额外执行“查询解析→向量检索→文档排序→知识整合”等步骤,导致推理时间延长。在实时性要求较高的场景(如智能客服对话)中,若推理延迟超过2秒,将显著影响用户体验。
- 实时信息更新滞后:部分场景(如金融市场动态、新闻资讯)需要RAG检索最新信息,但向量知识库的更新存在“时间差”——从新信息产生、录入知识库到完成向量化,通常需要数小时甚至数天,无法满足高实时性需求(如股票行情问答)。
5、安全与隐私防护风险
RAG需访问外部知识库(常包含企业敏感数据),且与用户直接交互,在数据安全、隐私保护、对抗性攻击防护上存在明显风险点:
- 敏感数据泄露隐患:企业部署RAG时,知识库中可能包含客户信息、商业机密、核心技术文档等敏感数据,若检索权限管控不当(如低权限用户获取高敏感文档),或数据传输过程中加密不足,可能导致数据泄露。例如,某金融机构的RAG系统若被未授权访问,可能泄露客户的账户流水信息。
- 对抗性攻击威胁:攻击者可能通过“注入恶意数据”(如在知识库中插入虚假产品信息)、“构造对抗性查询”(如通过特殊措辞诱导模型生成错误结论)等方式操纵RAG系统。例如,在电商客服场景中,攻击者可能注入虚假的“退款政策”文档,诱导模型生成错误的退款指引,损害企业与用户利益。
6、奖励函数与训练机制优化瓶颈
RAG的性能提升依赖于高效的奖励函数设计与高质量的训练数据,但当前技术在这两方面仍存在优化空间:
- 奖励函数设计局限:现有RAG系统多采用“基于结果的奖励函数”(如生成结果与参考答案的相似度评分),但在复杂任务场景(如创意写作、战略分析)中,这种“结果导向”的评价标准无法捕捉回答的逻辑性、创新性等细微差异,导致模型优化方向偏离实际需求。
- 训练数据获取成本高:RAG的优化需要大量高质量的“查询-检索文档-生成结果”交互数据,但这类数据的标注需专业人员参与(如医疗领域需医生标注病例匹配精度),不仅耗时久,且成本高昂。此外,不同行业的场景差异大,通用训练数据难以适配垂直领域需求,进一步加剧了数据获取难度。
二、技术范式的升级
RAG从最初概念诞生到现在,架构经历了三个阶段演化:基础检索生成(Naive RAG)→ 检索全流程优化(Advanced RAG)→ 具备反思能力的模块化系统(Modular RAG)。其中模块化架构通过LLM的递归调用实现动态检索决策,例如让模型自主判断何时触发检索或修正答案,形成类Agent的交互范式。具体可以看下图,细节在此不表,重点关注核心技术。
其实不管哪种范式,其本质都是搜索 + LLM的融合,所有核心技术的其实都是搜索和大模型的技术的变革。

三、关键技术
1、 检索技术
1.1 混合搜索
前面提到过目前RAG的Retrieval存在一些弊端,比如召回率低,准确率低,噪声大,存在冗余查询,效率和鲁棒性差等。因此我们需要Hybrid Search。目前比较通用的混合搜索是三路混合检索:全文搜索 with BM25 + 稠密向量(语义匹配) + 稀疏向量(关键词增强)。首先我们先简单介绍一下这集中检索方式:
全文索引
常使用倒排索引(Inverted Index)等技术,将文档中的每个单词映射到包含该单词的文档列表,从而实现高效的查询。查询速度快,适合精确匹配。支持复杂的查询语法(如布尔查询、通配符查询)。缺点是无法理解语义,仅依赖字面匹配。对同义词、语义相似性等处理能力有限,当然这可以通过归一化等预处理来解决。相关性排序,常用算法为BM25算法,基于词频、文档长度和逆文档频率的综合评分。
BM25(Best Matching 25)是一种基于概率模型的文档相关性评分算法,广泛用于全文搜索引擎中,用于衡量查询(Query)与文档(Document)之间的匹配程度。它是传统TF-IDF算法的改进版本,尤其在处理文档长度和词频分布上表现更优。BM25通过结合词频、逆文档频率和文档长度归一化,提供了一种高效评估文档与查询相关性的方法,具有高效、灵活和鲁棒的特点。BM25因其简洁性和高效性,至今仍是文本检索的基石技术,尤其在需要快速响应和可解释性的场景中不可替代。
Sparse vector search
稀疏检索是一种基于稀疏向量的搜索技术,通常用于传统的信息检索任务。稀疏向量是指向量中大部分元素为零,只有少数元素非零。使用词袋模型(Bag of Words, BoW)或 TF-IDF 等方法将文本表示为稀疏向量,然后通过计算向量之间的相似度(如点积)来检索相关文档。主要使用在传统文本检索(如搜索引擎)。计算效率高,适合大规模数据集,但是无法理解语义。
稀疏向量难以替代全文搜索:稀疏向量旨在替代全文搜索,其方法是使用标准预训练模型消除冗余词并添加扩展词,从而得到固定维度(例如 30,000 或 100,000 维)的稀疏向量输出。这种方法在一般查询任务上表现良好;但是,许多用户查询关键字可能不存在于用于生成稀疏向量的预训练模型中,例如特定的机器模型、手册和专业术语。因此,虽然稀疏向量和全文搜索都服务于精确召回的目的,但它们各有千秋,无法互相替代。
Vector Search
Vector search 是一种基于向量空间模型的搜索技术,将数据(如文本、图像、音频)转换为高维向量(通常是稠密向量),并通过计算向量之间的相似度(如余弦相似度或欧氏距离)来找到最相关的结果。利用机器学习模型(如深度学习)将数据映射到向量空间,语义相近的数据在向量空间中距离较近。主要应用场景是语义搜索(Semantic Search):理解查询的语义,而不仅仅是关键词匹配。能够捕捉语义信息,支持模糊匹配。适合处理非结构化数据(如文本、图像)。但是需要预训练模型生成向量,计算复杂度较高。对硬件资源(如GPU)要求较高。

采用多种召回方法可以为 RAG 带来更好的结果。具体来说,将向量搜索、稀疏向量搜索和全文搜索结合起来可以实现最佳召回率。这很容易理解,因为向量可以表示语义;一个句子甚至整篇文章都可以封装在一个向量中。本质上,向量传达了文本的“含义”,表示其与上下文窗口内其他文本共现的压缩概率。因此,向量无法精确表示查询。例如,如果用户问:“我们公司 2024 年 3 月的财务计划包括哪些组合?”结果可能会返回来自其他时间段的数据或不相关的主题,例如运营计划或营销管理。相比之下,全文搜索和稀疏向量主要表达精确的语义。因此,将这些方法结合起来可以满足我们日常对语义理解和精度的需求。

下图显示了使用 Infinity 在公共基准数据集上进行评估的结果,比较了单向召回方法(向量、稀疏向量、全文搜索)、双向召回和三向召回。纵轴表示排序质量,很明显三向召回取得了最佳结果,充分验证了 BlendedRAG 的效果。

目前的混合搜索架构中,不同的数据存储和检索大都是通过异构数据库和存储介质来实现的,这会带来效率和精准度的问题,因此同时支持多种检索的数据库显得尤为重要,但是有较大挑战,目前市面上实现此类功能的数据库有Milvus(支持多模态向量+标量过滤) , Weaviate(内置混合搜索)。
1.2 DPR(Dense Passage Retrieval)
在RAG(Retrieval-Augmented Generation,检索增强生成)系统中,DPR(Dense Passage Retrieval,稠密段落检索)是检索模块的核心技术之一。DPR通过使用密集向量表示来检索与查询最相关的文档或段落,是RAG系统的重要基础。由 Facebook AI Research 团队在2020年首次提出。
DPR是一种基于深度学习的检索方法,专注于将查询(query)和文档(passage)编码为稠密向量,并通过计算向量之间的相似度来检索与查询最相关的文档。DPR是稠密向量检索在段落检索任务中的一个具体实现,它利用深度学习模型将查询和文档编码为稠密向量,并通过相似度计算来检索相关文档。
DPR的核心功能
1. 双编码器架构:DPR采用双编码器架构,分别对查询和文档进行编码,将它们映射到高维向量空间中。通过计算查询向量和文档向量之间的相似度(如内积),DPR能够高效地检索出与查询最相关的文档。
2. 语义匹配:与传统的稀疏检索方法(如BM25)不同,DPR能够捕捉查询和文档之间的语义相似性,而不仅仅是关键词匹配。这使得DPR在处理复杂的自然语言查询时表现出色。
3. 高效检索:DPR利用密集向量表示和高效的最近邻搜索算法(如MIPS,Maximum Inner Product Search),能够快速从大规模知识库中检索出相关文档。
DPR作为RAG系统中的检索器,负责从外部知识库中检索与用户查询最相关的文档或段落。这些检索到的文档随后被送至生成模块,生成模块利用这些文档生成高质量、上下文相关的回答。DPR的高效语义检索能力显著提升了RAG系统在开放域问答等任务中的表现。
尽管DPR已经取得了显著的成果,但仍有改进空间。例如,DPR训练过程中的知识分散化(decentralization)可以进一步优化,以提高检索的多样性和准确性。此外,研究者们也在探索如何更好地将DPR与预训练语言模型结合,以进一步提升检索和生成的性能。
2 、重排序 Ranking Models
我们前面讲过,三路召回(BM25 + 稠密向量 + 稀疏向量)效果最优,但如何高效融合多路结果并重排序(Reranking)仍是难题。
排名是任何搜索系统的核心。排名涉及两个组件:一个是用于粗过滤的部分也就是粗排;另一个是用于微调阶段的重排序模型也叫重排或者精排。混合检索能够结合不同检索技术的优势获得更好的召回结果,但在不同检索模式下的查询结果需要进行合并和归一化(将数据转换为统一的标准范围或分布,以便更好地进行比较、分析和处理),然后再一起提供给大模型。这时候我们需要引入一个评分系统:重排序模型(Rerank Model)。
重排序模型会计算候选文档列表与用户问题的语义匹配度,根据语义匹配度重新进行排序,从而改进语义排序的结果。其原理是计算用户问题与给定的每个候选文档之间的相关性分数,并返回按相关性从高到低排序的文档列表。常见的 Rerank 模型如:Cohere rerank、bge-reranker 等。

不过,重排序并不是只适用于不同检索系统的结果合并,即使是在单一检索模式下,引入重排序步骤也能有效帮助改进文档的召回效果,比如我们可以在关键词检索之后加入语义重排序。
在具体实践过程中,除了将多路查询结果进行归一化之外,在将相关的文本分段交给大模型之前,我们一般会限制传递给大模型的分段个数(即 TopK,可以在重排序模型参数中设置),这样做的原因是大模型的输入窗口存在大小限制(一般为 4K、8K、16K、128K 的 Token 数量),你需要根据选用的模型输入窗口的大小限制,选择合适的分段策略和 TopK 值。
需要注意的是,即使模型上下文窗口很足够大,过多的召回分段会可能会引入相关度较低的内容,导致回答的质量降低,所以重排序的 TopK 参数并不是越大越好。
在RAG(Retrieval-Augmented Generation)系统中,检索完成后进行重排序(reranking)的目的是为了提高最终生成结果的质量和相关性。尽管初始检索阶段已经返回了一组相关文档或段落,但这些结果可能并不完全符合生成模型的需求,或者可能存在排序不合理的情况。重排序可以帮助筛选出最相关、最有用的信息,从而提升生成模型的输出效果。
接下来我们重点介绍几种常用的Reranker。
2.1 Cross-Encoder Reranker
Cross-Encoder Reranker 是一种基于深度学习的重排序模型,通过联合编码查询-文档对(将查询和文档拼接后输入模型)直接预测相关性分数,而非生成独立向量。其核心是利用交叉编码器(Cross-Encoder)架构来评估查询(query)和文档(document)对之间的相似度。与双编码器(Bi-Encoder)不同,交叉编码器不是分别对查询和文档进行编码,而是将查询和文档作为一个整体输入到模型中,从而能够更有效地捕获两者之间的交互和关系。这种架构通常由多层神经网络单元组成,例如Transformer或循环神经网络(RNN),能够将输入序列中的信息编码为固定大小的表。比传统向量检索更精准,能捕捉深层次语义关系。它通过端到端分类任务(如二元相关性判断)优化,适合对Top-K候选文档进行精排。代表模型有BAAI/bge-reranker-large。
Cross-Encoder可以与延迟交互(Late Interaction)结合,如本文前面提到过的ColPali(多模态RAG场景),通过分解查询-文档交互矩阵为多向量外积,实现高效语义排序,同时保留细粒度交互能力。
在效率方面,可以将大型Cross-Encoder(如BERT-large)蒸馏为轻量级模型(如TinyBERT),或采用FP16/INT8量化降低推理延迟。这些都是比较通用的方法,在此不表。
使用示例:
import numpy
import lancedb
from lancedb.embeddings import get_registry
from lancedb.pydantic import LanceModel, Vector
from lancedb.rerankers import CrossEncoderReranker
embedder = get_registry().get("sentence-transformers").create()
db = lancedb.connect("~/.lancedb")
class Schema(LanceModel):
text: str = embedder.SourceField()
vector: Vector(embedder.ndims()) = embedder.VectorField()
data = [
{"text": "hello world"},
{"text": "goodbye world"}
]
tbl = db.create_table("test", schema=Schema, mode="overwrite")
tbl.add(data)
reranker = CrossEncoderReranker()
# Run vector search with a reranker
result = tbl.search("hello").rerank(reranker=CrossEncoderReranker()).to_list()
2.2 [Graph-Based Reranking]
当前主流RAG系统遵循"检索-排序-生成"的线性流程,其中重排序环节通常采用两类方法:(1) 基于独立编码的交叉注意力模型(如MonoT5),单独评估每个文档与查询的相关性;(2) 基于列表级损失的排序模型(如ListNet),优化整个文档序列的排列。这两种范式都存在根本性局限——它们将文档视为孤立的个体,完全忽视了文档间丰富的语义关联,导致三个关键问题:
1. 信息整合失效: 当答案需要综合多篇文档信息时(如对比型问题"比较A与B的优缺点"),独立排序可能将与A、B分别相关但单独评分不高的文档排在后位,而实际上这些文档的组合才最具回答价值[2][3]。
2. 冗余放大效应: 高度相似的多篇文档可能因独立评分都较高而同时位居前列,挤占其他重要但独特信息的展示空间。论文图1展示了传统方法在HotpotQA数据集上出现的典型冗余案例,前5篇文档中有3篇内容重叠度超过70%。
3. 关系认知盲区: 现有系统无法识别文档间的因果、时序、对比等逻辑关系,而这些关系往往是解答复杂问题的关键。例如回答"COVID-19如何导致经济衰退"需要串联病因学文档与经济分析文档,尽管它们的主题相似度可能很低。
更本质地,这些问题的根源在于传统排序将文档视为独立同分布样本,而现实中文档间存在复杂的条件依赖关系。该论文首次提出将文档集合建模为图结构,其中节点表示文档,边表示语义关系,通过图算法挖掘全局结构信息来指导排序决策。
现有RAG系统在处理文档与问题上下文关系时存在挑战,当文档与问题的关联性不明显或仅包含部分信息时,模型可能无法有效利用这些文档。此外,现有方法通常忽视文档之间的连接,导致无法充分利用文档间的语义信息。
这篇 Paper 《Don’t Forget to Connect! Improving RAG with Graph-based Reranking》该论文提出了一种基于图的重排方法G-RAG,旨在通过利用文档之间的连接信息和语义信息,更有效地识别文档中的有价值信息,从而提高RAG在ODQA中的性能。

关键技术
1. 图结构构建
-
将检索到的文档或文本块表示为图中的节点,节点间的边通过以下方式建立:
-
语义相似性(如向量余弦相似度);
-
实体共现关系(如命名实体在同一文档中的关联);
-
逻辑依赖(如文档间的引用或因果链)[2][3]。
-
例如,类似GraphRAG的方法会预生成实体知识图,并通过社区检测划分紧密关联的节点组。
2. 图神经网络架构
基于GNN的架构来重排序检索到的文档:
- **节点特征:**使用预训练的语言模型(如BERT)编码文档文本,并结合AMR图中的最短路径信息来增强这些特征。
框架应用预先训练的语言模型对给定问题 q 的 {p1,p2,⋯,pn} 中所有 n
检索到的文档进行编码。文档嵌入表示为

,其中
d
是隐藏维度,

的每一行由以下公式给出

某些负面文档无法与其文本中的问题上下文建立足够的联系。此外,负面文档还会遇到另一种极端情况,即路径包含大量与问题文本相关的信息,但缺乏有价值信息。这种独特的模式提供了有价值的见解,可在编码过程中利用它们来提高重排器的性能。
因此,建议的文档嵌入由

给出,并且
X
的每一行可以由

给出:

- 边特征: 利用AMR图中共同节点和边的数量作为边特征。结合了AMR图,不仅捕捉文档的语义信息,还通过图结构增强了文档之间的语义关联。
- 表示更新: 通过GNN模型更新节点和边的表示,利用消息传递机制传递信息。
3. 图算法重排序
- 采用个性化PageRank或社区影响力评分对节点(文档)进行重要性排序,优先选择图中中心性高或与问题节点连接紧密的文档。
- 类似R4框架的图注意力机制,学习文档间的交互关系以优化顺序。
- 通过多跳推理挖掘间接关联的文档(如RAE框架的链式检索策略)。
4. 动态响应生成
- 对重排序后的文档集,分两步生成答案:
1)局部响应生成:每个高权重文档或社区摘要独立生成部分答案;
2)全局整合:通过LLM对局部响应去冗余并合成最终答案。
- 类似HippoRAG的神经启发方法,模拟人脑记忆整合机制优化知识融合。
5. 端到端优化
- 引入强化学习(如R4的奖励机制)或轻量级评估器(如CRAG)联合优化检索与生成模块。
2.3 [ColBERT Reranker]
ColBERT(Contextualized Late Interaction over BERT)是一种高效的检索模型,特别适用于大规模文本集合的检索任务。它通过延迟交互机制(late interaction architecture)结合BERT的上下文表示,实现了高效的检索和重排序。这里我们Jina-ColBERT-v2
1. 延迟交互机制(Late Interaction): ColBERT引入了一种延迟交互相似性函数,通过分别对查询和文档进行编码,然后在推理时计算查询和文档之间的相似性(MaxSim),从而实现延迟交互。这种方法在保持高效推理的同时,能够捕捉到查询和文档之间的复杂关系。
2. 多向量表示: 与传统的单向量检索模型不同,ColBERT为查询和文档中的每个标记生成一个嵌入向量,然后通过聚合这些标记嵌入来计算相关性分数。这种方法能够更细致地捕捉文本的语义信息。
3. 多语言预训练: Jina-ColBERT-v2使用XLM-RoBERTa作为其基础模型,并通过在多种语言的数据上进行预训练,提高了模型的多语言性能。
4. 弱监督学习: 论文提出在大规模的弱监督文本对上进行预训练,以学习文本的一般语义结构。这些文本对包括句子对、问答对和查询-文档对,涵盖了多种语言和领域。
5. 三元组训练: 在预训练的基础上,模型进一步在多种语言的检索数据上进行微调,使用标注的三元组数据和硬负样本进行训练,以提高检索性能。
3 、Multimodal RAG 多模态RAG
目前,多模态检索增强生成(Multimodal RAG) 已成为 RAG 技术中最前沿和流行的方向之一,它通过整合文本、图像、音频、视频等多种模态数据,显著提升了 AI 系统的理解和生成能力。
对于多模态文档,传统方法是使用模型将多模态文档转换为文本,然后再进行索引以供检索。另一种方法是直接多模态向量化,比如利用 视觉语言模型 VLM,直接生成向量,绕过复杂的 OCR 过程。2024 出现的 ColPali。ColPali 将图像视为 1024 个图像块,并为每个块生成嵌入,有效地将单个图像表示为张量。比如:

这意味着 VLM 对图像的理解更加深入,不再仅仅识别日常物品,而是可以高效识别企业级多模态文档。例如,来自 Google 的开源 3B 模型 PaliGemma,能够将图像块(Image Patches)嵌入到与文本相似的潜在空间中。ColPali 在此基础上扩展,通过投影层将模型输出的高维嵌入降维至 128 维,生成多向量表示(每个图像块对应一个向量),从而保留文档的细粒度视觉信息。借鉴文本检索模型 ColBERT 的“延迟交互”策略,ColPali 在检索阶段计算查询文本的每个 token 向量与文档图像块向量的最大相似度(MaxSim),而非传统的单向量相似度。这种方法避免了早期交互的计算负担,同时提升了检索精度。

这种技术的优势非常明显,端到端处理复杂文档**,直接输入文档图像(如 PDF 页面),无需传统 OCR、文本提取或布局分析等预处理步骤,显著简化流程并减少错误传播。还可以实现**多模态联合检索,通过视觉和文本嵌入的统一表示,模型能同时理解图表、表格和文本内容。例如,在财务报告或科学论文中,ColPali 可检索出纯文本方法可能遗漏的视觉关键信息。
如果我们可以使用 RAG 根据用户查询在大量 PDF 中查找包含答案的图像和文本,那么我们就可以使用 VLM 生成最终答案。这就是多模态 RAG 的意义所在,它不仅仅是简单的图像搜索。
检索过程需要一个 Versatile 的数据库,不仅支持基于张量的重新排序,而且还能在向量检索阶段容纳多向量索引。

在这里我们简单介绍一下直接多模态向量化和模态转换。
直接多模态向量化
- 核心思想:
- 使用多模态模型(如CLIP、Flamingo)直接生成跨模态的向量表示,跳过中间文本转换步骤。
- 核心任务:
- 通过模型(如CLIP、Flamingo)将不同模态数据(图/文/音)映射到同一向量空间,确保语义相似的输入(如“狗”的图片和文本“犬”)向量距离相近。
- 关键技术:
- 1)对比学习(Contrastive Learning):如CLIP的图文对齐训练。
- 2)共享编码器(Shared Encoder):同一模型处理多模态输入。
- 输出:
- 向量(如512维浮点数组),不直接完成检索任务。
- 流程

模态转换,多模态转文本(Modality-to-Text)
- 技术原理: 将非文本模态(如图像、音频)转换为文本描述(如 OCR、ASR、图像描述生成),再使用传统文本 RAG 进行检索和生成。
- 优势:
- 实现简单,兼容现有文本 RAG 架构。
- 适用于结构化数据(如表格、PDF)和语音转文本任务。
- 代表工具:
- BLIP-2(Salesforce):生成高质量的图像描述。
- Whisper(OpenAI):语音转文本(ASR)。
- 流程

多模态转文本(Modality-to-Text)和直接多模态向量化(Direct Multimodal Embedding)对比

当然,现实情况中,我们有多模态融合的scenarios,这个时候我们需要建立一个共享向量空间,使用跨模态模型(如 OpenAI的CLIP、DeepMind的Flamingo)将不同模态的数据(如图片、文本、音频)映射到同一向量空间,文档中的文本、图像等模态均可检索,通过距离计算匹配用户查询,实现跨模态语义对齐,比如以图搜文,以文搜图等。
4 、强化学习
4.1 DeepRAG
强化学习(Reinforcement Learning, RL)RAG 中的应用并不鲜见。RL能够优化RAG系统的检索策略、查询生成和答案推理过程,可以说,强化学习是 RAG 最好的军师。比如 DeepSeek-R1 就是通过基于规则的强化学习 (RL) 成功激发推理能力。
这篇 Paper 《DeepRAG: Thinking to Retrieval Step by Step for Large Language Models》提出了DeepRAG,采用马尔可夫决策过程(MDP)建模检索增强推理,动态决定何时检索外部知识。优化了推理精准度,减少不必要检索,提升计算效率。

- DeepRAG框架: DeepRAG将检索增强推理建模为马尔可夫决策过程(MDP),通过迭代分解查询,动态决定在每一步是否检索外部知识或依赖参数推理。奖励函数根据答案的正确性和检索成本来评估状态,结合答案正确性和检索成本,鼓励高效且准确的推理路径。
- 检索叙事(Retrieval Narrative): 确保结构化和自适应的检索流程,根据先前检索到的信息生成子查询。
- 原子决策(Atomic Decisions): 动态决定每个子查询是否检索外部知识或仅依赖LLMs的参数知识。
- 二叉树搜索(Binary Tree Search): 为每个子查询构建二叉树,探索基于参数知识或外部知识库的不同回答策略。
- 模仿学习(Imitation Learning): 通过二叉树搜索合成数据,使模型学习“子查询生成 - 原子决策 - 中间答案”的模式。
- 校准链(Chain of Calibration): 通过校准每个原子决策来细化模型对其自身知识边界的理解,使其能够更准确地做出检索必要性的决策。

DeepRAG 将检索增强推理建模为 MDP,结合二进制树搜索与校准链,实现了动态检索决策。减少冗余检索和不必要的噪声,能够显著提高系统的准确性和效率。但是其训练和推理过程可能需要较高的计算资源,且检索策略和知识边界校准方法有待提高,以泛化到更多的场景。
4.2 CoRAG
传统的RAG方法通常在生成过程之前采用一次性检索策略,也就是只进行一次检索,但这种方法在处理复杂查询时可能效果有限,因为检索结果可能并不完全准确,做过搜索的同学应该都知道,想要完成一次准确的搜索,需要很多步骤,多路找回,多次检索,合并,粗排,精排等等。这篇Paper 《Chain-of-Retrieval Augmented Generation》提出了CoRAG,核心思想是将检索过程分解为多个步骤,逐步获取和整合外部知识。

CoRAG 通过链式检索机制和强化学习,提升了检索增强生成技术的效率和性能,CoRAG将检索过程分解为多个步骤,实现了逐步检索和动态调整,并且通过强化学习训练检索策略,使模型能够根据任务需求自适应调整检索行为。

链式检索机制
逐步检索:将检索增强推理建模为多步决策过程,在生成过程中,模型根据当前生成的内容和任务需求,动态决定是否进行下一步检索。采用自适应检索策略:若中间答案置信度低,则重新检索;否则依赖已有信息继续生成。检索策略调整:通过强化学习或启发式规则,优化检索策略,确保每次检索都能获取最相关的信息。
大多数 RAG 数据集仅附带查询 Q 以及相应的最终答案 A ,而无需提供中间检索步骤。CoRAG 提出了一种通过拒绝抽样自动生成检索链的方法。
检索与生成的协同
多步检索整合:将每次检索的结果通过注意力机制与生成模型结合,确保生成内容与检索信息的一致性。
动态生成控制:根据检索结果的质量和相关性,动态调整生成策略,避免冗余或无关信息的引入。
训练与优化
训练数据:使用包含多步检索任务的数据集进行训练。数据集中的每个训练实例都表示为一个元组 (Q,A,Q1:L,A1:L),并附有查询 Q 和每个子查询的相应前 k 个检索文档。使用多任务学习框架中的标准下一个标记预测目标对增强数据集进行微调。
奖励设计:结合任务目标(如答案准确性、文本连贯性)设计奖励函数,引导模型学习最优检索策略。
模型架构:基于Transformer架构,扩展了检索决策模块和检索结果整合模块。
5 、GNN图神经网络
传统RAG方法在处理复杂关系和多源知识整合方面存在不足,难以捕捉知识片段之间的复杂关系(如多跳推理任务),如多步检索或基于图的检索面临计算成本高、图结构噪声或不完整、泛化性差等挑战。这篇Paper 《GFM-RAG: Graph Foundation Model for Retrieval Augmented Generation》提出了 GFM-RAG,通过构建图结构来显式建模知识之间的复杂关系,可以提高检索和推理的效率。当然,这些方法仍然受到图结构噪声和不完整性的影响,可能会限制其性能。

GFM-RAG框架: GFM-RAG通过构建知识图谱索引(KG-index)和图基础模型(GFM)来增强LLMs的推理能力。KG-index从文档中提取实体和关系,形成一个结构化的知识索引。GFM则利用图神经网络(GNN)来捕捉查询和知识图之间的复杂关系。

包含三个核心组件:
1. KG索引构建:从文档中提取实体和关系,构建知识图谱(KG-index),并通过实体解析增强语义连接。
传统的基于嵌入的索引方法将文档编码为单独的向量,但这些方法在对它们之间的关系进行建模方面受到限制。另一方面,知识图谱 (KG) 明确捕捉了数百万个事实之间的关系,可以提供跨多个文档的知识的结构化索引。KG 索引的结构性质与人类海马记忆索引理论非常吻合,其中 KG 索引就像一个人工海马,用于存储知识记忆之间的关联,增强了复杂推理任务对各种知识的整合。
为了构建 KG 索引,给定一组文档 ,我们首先从文档中提取实体 ℰ 和关系 ℛ 以形成三元组 。然后,构建实体到文档的倒排索引 M∈{0,1}|ℰ|×| | 来记录每个文档中提到的实体。这一过程可以通过现有的开放信息提取 (OpenIE) 工具实现。为了更好地捕捉知识之间的联系,进一步进行实体解析,在具有相似语义的实体之间添加额外边 + ,例如 ( USA , equivalent , United States of America )。因此,最终的 KG 索引 构建为 G={(e,r,e′)∈T∪T+}。在实施过程中,利用 LLM 作为 OpenIE 工具,并利用预先训练的密集嵌入模型进行实体解析。
2. 图基础模型检索器(GFM Retriever):
- 查询依赖的GNN:动态调整消息传递过程,基于查询语义和KG结构进行多跳推理。
传统的 GNN 遵循消息传递范式,该范式迭代地聚合来自邻居的信息以更新实体表示。这种范式不适用于 GFM 检索器,因为它是特定于图的,并且忽略了查询的相关性。但是 query-dependent GNNs 在捕获查询特定信息和对不可见图的通用性方面表现出良好:

其中

表示初始实体特征,
HqL 表示在经过 L 层依赖于查询的消息传递之后以查询 q 为条件的更新后的实体表示。
查询相关的 GNN 表现出更好的表达能力和逻辑推理能力,作为 GFM 检索器的骨干。它允许 GFM 检索器根据用户查询动态调整消息传递过程,并在图上找到最相关的信息。
-
两阶段训练
-
- 无监督KG补全预训练:在大规模KG上学习图推理能力
- 有监督文档检索微调:优化查询-文档相关性。
GFM 检索器的训练目标是最大化与查询相关的实体的可能性,可以通过最小化二元交叉熵 (BCE) 损失来优化:

其中 q 表示与查询 q 相关的目标实体集, ℰ-⊆ℰ∖ q 表示从 KG 中采样的负实体集。然而,由于目标实体的稀疏性,BCE 损失可能遭受梯度消失问题。为了解决这个问题,进一步引入了排名损失, 以最大化正负实体之间的边际:

最终的训练目标是 BCE 损失和排名损失的加权组合:

3. 文档排序与答案生成:根据实体相关性得分排序文档,输入LLM生成最终答案。
鉴于 GFM 检索器预测的实体相关性得分 Pq∈ℝ|ℰ|×1 ,首先检索相关性得分最高的前 T 个实体 ℰqT :

然后,文档排名器使用这些检索到的实体来获取最终文档。为了减少热门实体的影响,按照实体在文档倒排索引 M∈{0,1}|ℰ|×| | 中被提及的频率的倒数来加权实体,并通过对文档中提及的实体的权重求和来计算最终的文档相关性得分:

根据文档相关性得分 Pd 检索排名前 K 的文档,并以检索增强生成的方式输入到 LLMs 的上下文中,以生成最终答案:

图基础模型(GFM): GFM是一个基于查询的GNN,能够根据用户查询动态调整信息传递过程,从而在单步中完成多跳推理。GFM经过两个阶段的训练:无监督的知识图完成预训练和有监督的文档检索微调。模型有8M参数,通过大规模训练(60个KG、14M三元组、700k文档)实现跨数据集零样本泛化。在7个领域数据集上 zero-shot 表现优于HippoRAG 18.9%。
关于 Scaling Law,从图中我们看到模型性能随模型参数大小和训练数据大小变化的拟合趋势线。从趋势线中我们可以看到 GFM-RAG 的性能随着模型参数大小和训练数据大小的增加而提高。同时,随着模型参数大小的增大,需要更大的训练数据量才能达到最佳性能。也就是说,同时扩大模型大小和训练数据可以进一步提高 GFM-RAG 的性能。

训练过程:
- 无监督知识图完成预训练: 通过掩码知识图中的实体来创建合成查询,训练GFM预测被掩码的实体。
- 有监督文档检索微调: 使用标注的查询-文档对进行训练,使GFM能够更好地理解用户查询并检索相关文档。
GFM-RAG通过图结构建模和图神经网络推理,显著提升了RAG在复杂推理任务中的性能。但还是同样的问题,训练和推理过程可能需要较高的计算资源。如果有更高效的训练策略和更大的模型规模,模型的效率和泛化性将会得到显著提高。
6 、Agentic RAG
LLM横行的年代,大多数人言则Agent,事实确实如此,LLM的落地一定是Agent,RAG也不例外。代理和 RAG 之间存在着不可分割的关系,RAG 本身是代理的关键组件,使它们能够访问内部数据;相反,代理可以增强 RAG 功能,从而产生了所谓的 Agentic RAG,例如 Self RAG 和 Adaptive RAG,因此两者实际上你中有我,我中有你的关系。
这种高级形式的 RAG 允许以受控的方式在更复杂的场景中进行自适应更改。要实现 Agentic RAG,代理框架必须具备“闭环”功能。在 Andrew Ng 的四种代理设计模式中,这种“闭环”能力被称为反射能力。

Agentic RAG(基于代理的检索增强生成)代表了RAG技术的最新发展方向,通过将人工智能代理(Agent)的自主规划与决策能力引入传统检索增强生成框架,实现了对复杂查询任务的高效处理。本文将全面解析Agentic RAG的核心概念、技术架构、优势特点以及实际应用场景,帮助读者深入理解这一前沿技术如何通过智能代理的动态编排机制和多跳推理能力,显著提升传统RAG系统在复杂信息处理任务中的表现。

6.1 核心概念与产生背景
Agentic RAG(基于代理的检索增强生成)是传统检索增强生成技术的高级演进形式,它通过引入人工智能代理(Agent)的自主决策能力,使RAG系统从被动的信息检索-生成管道转变为具有主动规划和反思能力的智能体,本质上是一种融合了Agent能力与RAG架构的混合系统,其核心创新在于将AI智能体的自主规划(如路由、行动步骤、反思等)能力整合到传统的RAG流程中,以适应更加复杂的查询任务。
Agentic RAG的产生背景正是为了解决传统RAG在复杂场景下的这些不足。随着企业知识管理需求的日益复杂化,简单的问答式RAG已不能满足实际业务需求。企业环境中存在大量异构数据源(如结构化数据库、非结构化文档、知识图谱等),用户查询往往需要跨源关联和综合推理。同时,许多高级任务还需要结合外部工具(如计算器、API服务等)才能完整解答。这些挑战促使RAG技术向更智能、更自主的方向发展,从而催生了Agentic RAG这一新兴范式。
AI Agent 是具有环境感知、自主决策和行动执行能力的智能体,能够基于目标动态规划行动步骤。将这种能力引入RAG系统后,系统能够自主决定是否需要检索、选择哪种检索策略、评估检索结果质量、决定是否重新检索或改写查询,以及在必要时调用外部工具。这种进化使RAG系统具备了感知,决策和行动能力。
从系统构成角度看,Agentic RAG可被视为RAG工具化的Agent框架。在这种视角下,传统的RAG管道(检索器+生成器)被降级为Agent可使用的一种工具,而Agent则负责更高阶的任务规划与协调。这种架构转变带来了设计范式的根本变化:不再是"如何改进RAG管道",而是"如何让Agent更有效地利用RAG工具",从而打开了更广阔的设计空间和优化可能性。
表:传统RAG与Agentic RAG的核心区别

6.2 技术架构与关键组件
Agentic RAG系统的技术架构呈现出多样化的设计范式,从单Agent控制到多Agent协同的不同实现方式。与传统的线性RAG流程不同,Agentic RAG 将检索与生成过程重构为基于智能代理的动态可编排系统,通过引入规划、反思和工具使用等Agent核心能力,显著提升了复杂信息处理任务的解决能力。
单Agent架构模式
单Agent架构是Agentic RAG的基础实现形式,其核心思想是构建一个具备规划能力的 Master 智能体,将各种RAG管道和外部工具作为该 Agent 可调用的"工具"。在这种架构中,传统RAG的检索器、生成器等组件被工具化,成为 Agent 执行计划时可选择的资源。当用户查询进入系统后,Master Agent 会首先分析查询意图和复杂度,然后动态规划解决方案,可能包括:决定是否需要检索、选择哪种检索策略(如向量检索、关键词检索或混合检索)、确定是否需要进行多步检索以及是否需要调用外部工具等。
单Agent架构中的关键组件包括:
- 查询分析器: 负责深度理解用户查询,识别隐含意图和所需的信息类型。先进的实现可能采用few-shot学习或思维链(Chain-of-Thought)技术提升意图识别准确率。
- 策略规划器: 基于查询分析结果,制定检索与生成策略。例如,对于"比较X和Y"类的对比查询,规划器可能决定并行检索X和Y的相关信息,然后进行对比生成。
- 工具集: 包括各种专业化RAG管道(如面向事实查询的向量检索、面向摘要任务的文本压缩检索等)和外部工具(如计算器、API接口等)。Agent将这些工具视为可插拔的模块。
- 反思模块: 评估中间结果的质量,决定是否需要调整策略。例如,当首次检索结果不理想时,反思模块可能触发查询改写或更换检索策略。
单Agent架构的优势在于设计相对简单和资源需求较低,适合中等复杂度的应用场景。但当面对企业级复杂知识环境(如跨部门多源异构数据)时,单个Agent可能面临规划负担过重、专业知识不足等挑战,这时就需要考虑更高级的多Agent架构。
多Agent分层架构
多Agent分层架构是应对企业级复杂场景的 Agentic RAG 解决方案,通过引入层级化的 Agent 组织,实现关注点分离和专业化分工。典型的双层架构包含一个顶层协调Agent和多个专业领域Agent,每个下层Agent负责特定类型的数据源或任务,而顶层Agent则负责任务分解、协调和结果整合。
多Agent架构中的典型角色划分包括:
- 顶层协调Agent: 作为系统入口,接收用户查询并进行任务分析和规划。它了解整个系统的能力分布,负责将复杂查询分解为子任务并分配给合适的专业Agent。
- 领域Agent: 每个Agent专门负责某一类文档或特定领域的数据源。例如,企业环境中可能有财务Agent(处理财报数据)、产品Agent(管理产品文档)和客户Agent(处理CRM数据)等。这些Agent内部可以集成多种RAG工具,如向量检索、SQL查询等,根据子任务特点选择最佳工具。
- 工具Agent: 管理外部工具和API的访问,如网络搜索Agent、计算工具Agent等。当领域Agent需要额外能力时,可以通过顶层Agent协调调用这些工具Agent。
多Agent架构的核心优势在于其卓越的可扩展性和专业分工。新增数据源或工具时,只需添加相应的专业Agent而无需修改核心架构。同时,每个Agent可以专注于特定领域,通过精细化优化提供更专业的服务。腾讯云开发者社区的一篇文章中提到,这种架构"既能准确地解析不同类型的文件,还能利用Agent强大的规划和推理能力,面对用户Query选择最合适的路由策略和处理方法,大幅提升系统面对海量文档、跨文档检索、全局提炼与总结等问题时的处理能力"。
在通信机制的设计上,有中心化通信VS去中心化通信。
中心化通信(Centralized communication),在中心化通信中,存在一个中心节点,所有智能体都直接与这个中心节点进行通信。中心节点负责协调和集成所有智能体的信息,然后向各个智能体发出指令或反馈。中心节点可以全局地了解所有智能体的状态和信息,有助于做出全局最优的决策。但是容易出现单点故障,中心节点的故障可能导致整个系统的通信瘫痪。
去中心化通信(Decentralized communication),在去中心化通信中,智能体之间直接进行通信,没有中心节点,每个智能体只与它的邻居或部分智能体交换信息。有单点故障的风险,系统的鲁棒性更强,同时可扩展性极强。但是没有全局信息,难以做出全局最优的决策。
关于Multi Agent系统的设计,又是另外一个复杂的 Topic 了,不做赘述。
四、Challenges and Future Directions in RAG
4.1 统一多模态大模型
通过直接多模态向量化,RAG系统能更自然地处理复杂现实数据,而不仅限于文本世界。实际选型时需权衡计算成本、领域适配性和实时性需求。如GPT-4V、Gemini 1.5的端到端多模态理解。目前的Multimodal 还是处于发展期,远没有成熟,问题包括但不限于:
1. 多模态表示与检索的挑战
- 跨模态知识表示: 不同模态的数据(如文本、图像、音频)需要转换为统一的向量表示,以便进行跨模态的高效检索。然而,如何设计一个能够准确捕捉不同模态语义信息的统一表示是一个关键问题。例如,CLIP模型通过学习图像和文本的对齐表示实现了跨模态检索,但其在复杂场景下的泛化能力仍有待提升。
- 检索效率与准确性: 在大规模多模态数据中进行高效检索是一个挑战。向量检索方法虽然能够快速找到相似的模态数据,但可能难以区分语义上的细微差别,导致检索结果不准确。此外,多模态数据的稀疏性也增加了检索难度,尤其是在信息分散于多个文档时。
- 数据对齐问题: 不同模态的数据在语义上需要对齐,例如一段文本描述了一张图片的内容,如何将这两者在语义上进行有效对齐是一个关键挑战。
- 生成内容的质量: 多模态RAG系统需要确保生成内容的准确性和一致性。由于检索到的知识片段可能来自不同的模态和文档,模型需要有效地整合这些信息,比如我们之前讲的如何对多路、多模态Reranker就是一个挑战。
- 效率与性能
- 计算资源需求: 多模态RAG系统需要处理大量的数据和复杂的模型计算,对计算资源的需求较高。特别是在实时应用中,如何优化检索和生成过程以减少延迟是一个关键问题。
- 模型训练与微调: 为了提升多模态RAG系统的性能,需要对模型进行微调。然而,不同模态数据的训练难度不同,且微调过程需要大量的标注数据。
- 鲁棒性与可解释性: 相比于传统的搜索系统,多模态RAG系统在复杂场景下的鲁棒性不足,当然,这不只是RAG的问题。
4.2 安全 (TrustRAG)
检索外部知识库可能引入敏感信息(如专利、隐私数据),RAG模型可能被滥用于生成虚假信息或恶意内容等等,但是我们这里主要讲恶意攻击和注入。这篇Paper 《TrustRAG: Enhancing Robustness and Trustworthiness in RAG》,提出了一种两阶段防御机制:首先,利用 K-means 聚类识别检索文档中的潜在攻击模式,基于语义嵌入有效隔离可疑内容;其次,通过余弦相似度和 ROUGE 指标检测恶意文档,并通过自我评估过程解决模型内部知识与外部信息之间的差异。

TrustRAG 的主要工作流:
- 识别恶意文档: 利用 K-means 聚类分析文档的语义嵌入分布,识别出潜在的恶意文档簇。
- 过滤恶意内容: 根据嵌入分布过滤掉恶意文档,保留干净文档。
- 提取内部知识: 利用 LLM 的内部知识生成准确的推理结果。
- 解决冲突: 通过整合内部和外部知识,解决知识冲突,去除不相关或矛盾的文档。
- 生成可靠答案: 基于精炼后的文档生成最终的可靠回答
其实关于安全这一块,是一个非常重要的课题,可以确定的是,LLM一定会超过单个碳基生命的智慧。如何做好安全防护,一定是使用者首先要关注的,比如Deep Mind就有一个Red Team团队专门研究大模型安全的课题,这里我们不做过多介绍,后续可以单独作为一个研究的 Topic。
那么,如何系统的去学习大模型LLM?
作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。
所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。
由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。


👉大模型学习指南+路线汇总👈
我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。

👉①.基础篇👈
基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
👉②.进阶篇👈
接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
👉③.实战篇👈
实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
👉④.福利篇👈
最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)