教程地址:https://github.com/datawhalechina/all-in-rag/
感谢datawhale的教程,以下笔记大部分内容来自该教程

conda activate all-in-rag
# 假设当前在 all-in-rag 项目的根目录下
cd code/C1
#运行代码
python 01_langchain_example.py

在这里插入图片描述
输出的参数

  • content: 这是最核心的部分,即大型语言模型(LLM)根据你的问题和提供的上下文生成的具体回答。
  • additional_kwargs: 包含一些额外的参数,在这个例子中是 {‘refusal’: None},表示模型没有拒绝回答。
  • response_metadata: 包含了关于LLM响应的元数据。
  • token_usage: 显示了本次调用消耗的token数量,包括完成(completion_tokens)、提示(prompt_tokens)和总量(total_tokens)。
  • model_name: 使用的LLM模型名称,当前是 deepseek-chat。
  • system_fingerprint, id, service_tier, finish_reason, logprobs: 这些是更详细的API响应信息,例如 finish_reason: ‘stop’ 表示模型正常完成了生成。
  • id: 本次运行的唯一标识符。
  • usage_metadata: 与 response_metadata 中的 token_usage 类似,提供了输入和输出token的统计。

如果没有魔法,且下载模型失败
在shell中从huggingface下载模型

export HF_ENDPOINT=https://hf-mirror.com
hf download --local-dir ./bge-small-zh-v1.5  BAAI/bge-small-zh-v1.5 

在使用的时候显示指定位置在哪个路径。

基于LangChain框架的RAG实现

初始化设置

import os
# os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com'
from dotenv import load_dotenv
from langchain_community.document_loaders import TextLoader
from langchain_text_splitters import RecursiveCharacterTextSplitter
from langchain_huggingface import HuggingFaceEmbeddings
from langchain_core.vectorstores import InMemoryVectorStore
from langchain_core.prompts import ChatPromptTemplate
from langchain_deepseek import ChatDeepSeek

# 加载环境变量
load_dotenv()

数据准备

  1. 加载原始文档: 先定义Markdown文件的路径,然后使用TextLoader加载该文件作为知识源
markdown_path = "../../data/C1/markdown/easy-rl-chapter1.md"
loader = TextLoader(markdown_path)
docs = loader.load()
  1. 文本分块 (Chunking): 为了便于后续的嵌入和检索,长文档被分割成较小的、可管理的文本块(chunks)。这里采用了递归字符分割策略,使用其默认参数进行分块。当不指定参数初始化 RecursiveCharacterTextSplitter() 时,其默认行为旨在最大程度保留文本的语义结构:
  • 默认分隔符与语义保留: 按顺序尝试使用一系列预设的分隔符 [“\n\n” (段落), “\n” (行), " " (空格), “” (字符)] 来递归分割文本。这种策略的目的是尽可能保持段落、句子和单词的完整性,因为它们通常是语义上最相关的文本单元,直到文本块达到目标大小。
  • 保留分隔符: 默认情况下 (keep_separator=True),分隔符本身会被保留在分割后的文本块中。
  • 默认块大小与重叠: 使用其基类 TextSplitter 中定义的默认参数 chunk_size=4000(块大小)和 chunk_overlap=200(块重叠)。这些参数确保文本块符合预定的大小限制,并通过重叠来减少上下文信息的丢失。
text_splitter = RecursiveCharacterTextSplitter()
texts = text_splitter.split_documents(docs)

索引构建

初始化中文嵌入模型+构建向量存储
HugginfaceEmbeddings+InMemoeyVectorStore
初始化中文嵌入模型: 使用HuggingFaceEmbeddings加载之前在初始化设置中下载的中文嵌入模型。配置模型在CPU上运行,并启用嵌入归一化 (normalize_embeddings: True)。

embeddings = HuggingFaceEmbeddings(
    model_name="BAAI/bge-small-zh-v1.5",
    model_kwargs={'device': 'cpu'},#配置模型在CPU上运行
    encode_kwargs={'normalize_embeddings': True}#启用嵌入归一化
)

构建向量存储: 将分割后的文本块 (texts) 通过初始化好的嵌入模型转换为向量表示,然后使用InMemoryVectorStore将这些向量及其对应的原始文本内容添加进去,从而在内存中构建出一个向量索引。

vectorstore = InMemoryVectorStore(embeddings)
vectorstore.add_documents(texts)

查询与检索

索引构建完毕后,便可以针对用户问题进行查询与检索:
定义用户查询: 设置一个具体的用户问题字符串。

question = "文中举了哪些例子?"

在向量存储中查询相关文档: 使用向量存储的similarity_search方法,根据用户问题在索引中查找最相关的 k (此处示例中 k=3) 个文本块。

retrieved_docs = vectorstore.similarity_search(question, k=3)

准备上下文: 将检索到的多个文本块的页面内容 (doc.page_content) 合并成一个单一的字符串,并使用双换行符 (“\n\n”) 分隔各个块,形成最终的上下文信息 (docs_content) 供大语言模型参考。

docs_content = "\n\n".join(doc.page_content for doc in retrieved_docs)

使用 “\n\n” (双换行符) 而不是 “\n” (单换行符) 来连接不同的检索文档块,主要是为了在传递给大型语言模型(LLM)时,能够更清晰地在语义上区分这些独立的文本片段。双换行符通常代表段落的结束和新段落的开始,这种格式有助于LLM将每个块视为一个独立的上下文来源,从而更好地理解和利用这些信息来生成回答。

生成集成

最后一步是将检索到的上下文与用户问题结合,利用大语言模型(LLM)生成答案:

  • 构建提示词模板: 使用ChatPromptTemplate.from_template创建一个结构化的提示模板。此模板指导LLM根据提供的上下文 (context) 回答用户的问题 (question),并明确指出在信息不足时应如何回应。
prompt = ChatPromptTemplate.from_template("""请根据下面提供的上下文信息来回答问题。
请确保你的回答完全基于这些上下文。
如果上下文中没有足够的信息来回答问题,请直接告知:“抱歉,我无法根据提供的上下文找到相关信息来回答此问题。”

上下文:
{context}

问题: {question}

回答:"""
         

配置大语言模型: 初始化ChatDeepSeek客户端,配置所用模型 (deepseek-chat)、生成答案的温度参数 (temperature=0.7)、最大Token数 (max_tokens=2048) 以及API密钥 (从环境变量加载)。

llm = ChatDeepSeek(
    model="deepseek-chat",
    temperature=0.7,
    max_tokens=2048,
    api_key=os.getenv("DEEPSEEK_API_KEY")
)

调用LLM生成答案并输出: 将用户问题 (question) 和先前准备好的上下文 (docs_content) 格式化到提示模板中,然后调用ChatDeepSeek的invoke方法获取生成的答案。

answer = llm.invoke(prompt.format(question=question, context=docs_content))
print(answer)
# 文本分块
text_splitter = RecursiveCharacterTextSplitter(
   chunk_size=1000,      # 增大块大小,每个块约1000字符
    chunk_overlap=200,    # 增大重叠部分,保持上下文连贯性
    separators=["\n\n", "\n", " ", ""]  # 自定义分割符
    )

调整chunksize和chunk_overlap

在这里插入图片描述

print(answer.content)#获取回答

在这里插入图片描述

参数调整对输出的影响

  1. chunk_size 的影响:
  • 较小的chunk_size(如 500):文本块更细碎,检索到的信息可能更精准但不完整
  • 较大的chunk_size(如 2000):文本块更完整,上下文信息更丰富,但可能包含冗余内容
  1. chunk_overlap 的影响:
  • 较小的chunk_overlap(如 50):文本块独立性强,可能丢失跨块的上下文关联
  • 较大的chunk_overlap(如 300):增强了块之间的连贯性,适合处理有连续逻辑的文本,但会增加冗余

低代码(基于LlamaIndex)

在RAG方面,LlamaIndex提供了更多封装好的API接口,这无疑降低了上手门槛,下面是一个简单实现:

import os
# os.environ['HF_ENDPOINT']='https://hf-mirror.com'
from dotenv import load_dotenv
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings 
from llama_index.llms.deepseek import DeepSeek
from llama_index.embeddings.huggingface import HuggingFaceEmbedding

load_dotenv()
#环境设置
#模型配置
Settings.llm = DeepSeek(model="deepseek-chat", api_key=os.getenv("DEEPSEEK_API_KEY"))
## 设置使用 DeepSeek 的聊天模型作为语言模型
Settings.embed_model = HuggingFaceEmbedding("BAAI/bge-small-zh-v1.5")
## 设置使用 BAAI 的中文小型嵌入模型进行文本向量化

documents = SimpleDirectoryReader(input_files=["../../data/C1/markdown/easy-rl-chapter1.md"]).load_data()
## 从指定路径加载 Markdown 文档内容
index = VectorStoreIndex.from_documents(documents)
# 将文档内容转换为向量索引,便于后续的相似性搜索
query_engine = index.as_query_engine()
# 创建查询引擎,用于处理自然语言查询
print(query_engine.get_prompts()) # 打印使用的提示词模板
print(query_engine.query("文中举了哪些例子?")) # 执行查询并打印结果
Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐