摘要

本文深入探讨了Zep AI推出的Graphiti框架,一种基于图数据库构建的实时、时序感知的知识图谱引擎,旨在为AI代理提供动态记忆支持。相较于传统的RAG方法,Graphiti能够实时更新数据、快速检索,并通过时序模型保留历史准确性,为智能代理的未来发展铺平道路 。

一、引言:AI代理的未来与记忆挑战

人工智能的真正潜力远不止基础聊天机器人或基于检索增强生成(RAG)的简单交互。真正的突破在于打造自主智能代理(Agentic AI),这些代理能够独立解决问题,从简单交互到复杂工作流无所不包。然而,要实现这一目标,代理需要超越静态检索机制,拥有动态记忆能力,能够持续整合用户交互、企业数据和外部知识 。

传统的RAG方法在数据频繁更新的场景中往往力不从心,无法为基于代理的系统提供有效的支持。为了解决这一问题,Zep AI推出了Graphiti框架——一个灵活的实时记忆层,基于时序感知的知识图谱,并存储在Neo4j数据库中 。本文将详细解析Graphiti的工作原理,并将其与微软研究的GraphRAG(一种基于查询聚焦摘要的实现方式)进行对比,探讨其在动态数据环境中的独特优势。

二、传统RAG的局限性:静态方法的困境

微软的GraphRAG方法通过提取实体和关系,构建以实体为中心的知识图谱,并将其分组为主题集群或“社区”。该方法依赖于大语言模型(LLM)预计算这些社区的摘要。在处理查询时,GraphRAG会进行多次LLM调用,首先生成社区级别的部分响应,然后将这些响应整合为一个完整的答案 。

这种方法在处理大型静态数据集时表现优异,能够提供详细且上下文丰富的响应。然而,当数据频繁更新时,其局限性显现:每次更新可能触发整个图谱的大规模重新计算。此外,其多步骤摘要过程导致检索速度较慢,延迟往往高达几十秒。这种延迟和缺乏动态更新能力,使得GraphRAG难以作为代理应用的全面记忆基础设施 。

三、Graphiti与Neo4j:实时动态代理记忆的解决方案

Graphiti通过其动态数据处理能力,克服了静态RAG的局限性。作为一个实时、时序感知的知识图谱引擎,Graphiti能够逐步处理传入数据,即时更新实体、关系和社区,无需批量重新计算。它不仅是另一个检索工具,而是为智能代理提供持续可用且不断更新的上下文来源,这是传统RAG系统根本无法实现的 。

Graphiti能够同时处理聊天历史记录、结构化JSON数据和非结构化文本。所有数据源可以整合到一个统一的图谱中,或者在同一Graphiti设置下共存多个图谱。这种设计为代理提供了一个统一的、不断演变的“世界观”,极大地提升了其实时交互能力 。

四、Graphiti在动态数据处理中的独特优势

Graphiti的实时增量架构专为频繁更新设计。它持续摄取新的事件或消息(称为数据片段),提取并立即将实体和关系与现有节点进行匹配和更新。这种即时处理能力确保了知识图谱始终保持最新状态 。

Graphiti的一个关键特性是其双时序模型(Bi-temporal Model),该模型记录事件发生的时间以及数据被摄取的时间。图谱中的每个边(或关系)都包含明确的有效性区间(t_valid, t_invalid)。通过语义、关键词和图谱搜索,Graphiti能够判断新知识是否与现有知识冲突,并在冲突发生时利用时序元数据智能地更新或失效过时信息,同时保留历史准确性,而无需大规模重新计算 。

这一时序模型还支持强大的历史查询功能,用户可以重建特定时刻的知识状态,或分析数据随时间演变的过程。这对于需要在复杂时间维度上进行分析的场景尤为重要 。

五、快速查询速度:无需LLM调用的即时检索

Graphiti在速度上也表现卓越。Zep的Graphiti实现达到了极低的延迟检索效果,P95延迟仅为300毫秒。其混合搜索方法结合了语义嵌入、关键词(BM25)搜索和直接图谱遍历,避免了检索过程中调用LLM的开销 。

Graphiti利用向量和BM25索引,实现了几乎恒定时间的节点和边访问,无论图谱规模如何。这一特性得益于Neo4j对这两种索引类型的广泛支持。低延迟的查询性能使Graphiti非常适合实时交互场景,包括语音应用 。

六、自定义实体类型:简单的本体实现

Graphiti能够根据传入数据自动构建本体(Ontology),并注意去重节点和一致性标记边关系。此外,它还提供了一种直观的方法,使用熟悉的Pydantic模型定义特定领域的自定义实体类型 。

这些自定义实体类型支持精确的上下文提取,显著提升了代理交互的质量。例如,自定义实体类型可以包括:

  • 个性化用户偏好和兴趣(如喜欢的餐厅、联系人、爱好)以及标准属性(如姓名、生日、地址);
  • 程序性记忆,记录行动指令;
  • 特定领域的业务对象(如产品、销售订单) 。

以下是一个简单的Pydantic模型示例,用于定义“客户”实体类型:

python
from
 pydantic 
import
 BaseModel, Field

classCustomer(BaseModel):

"""A customer of the service"""

    name: 
str
 | 
None
 = Field(..., description=
"The name of the customer"
)

    email: 
str
 | 
None
 = Field(..., description=
"The email address of the customer"
)

    subscription_tier: 
str
 | 
None
 = Field(..., description=
"The customer's subscription level"
)

Graphiti会自动将提取的实体与定义的自定义类型匹配。这种能力增强了代理准确回忆知识和提高上下文感知的能力,对确保交互的一致性和相关性至关重要 。

七、Graphiti与QFS-Based GraphRAG的关键对比

以下表格展示了Graphiti与基于查询聚焦摘要(QFS)的GraphRAG在关键特性上的对比(原文中包含此表格,建议插入表格图片或绘制类似表格) :

特性 Graphiti QFS-Based GraphRAG
数据更新方式 实时增量更新,无需批量重算 更新需大规模重算
查询延迟 P95延迟300毫秒,无LLM调用 延迟数十秒,需多次LLM调用
时序感知能力 双时序模型,保留历史准确性 无时序感知,静态处理
自定义实体支持 支持Pydantic模型自定义实体 不支持或支持有限

八、Graphiti:驱动代理未来的图谱记忆

Graphiti代表了从传统RAG方法到动态Agent系统记忆基础设施的重要转变。它通过时序感知的知识图谱实现增量、实时更新,工程师无需在数据变更时重新计算整个图谱。Graphiti能够基于时序元数据解决冲突,并保持准确的历史状态 。

通过消除查询时依赖LLM摘要的瓶颈,Graphiti达到了工程师在交互式现实应用中所需的实用延迟水平。其混合索引系统——结合语义嵌入、关键词搜索和图谱遍历——实现了近乎恒定时间的快速检索,不受图谱规模影响。借助Pydantic模型等直观工具实现自定义实体类型,Graphiti填补了代理开发中的重要能力空白,为工程师提供了强大、高性能且真正动态的记忆层 。

九、总结与展望

Graphiti的出现标志着AI代理记忆技术的重要进步,为构建上下文丰富、可解释的生成式AI应用奠定了基础。结合Neo4j的强大支持,Graphiti不仅解决了动态数据处理的核心难题,还为未来的智能代理系统提供了坚实的记忆基础设施。无论是企业应用、科研探索还是投资布局,Graphiti都展现了知识图谱技术在AI领域的巨大潜力 。

如果您对Graphiti或Zep的技术细节感兴趣,可访问其GitHub页面或相关技术文档,了解更多关于其性能基准和时序知识图谱架构的内容 。https://t.zsxq.com/54ymx

柯基数据(www.kgtdata.com)深耕知识图谱增强大模型领域,有兴趣也可以联系我们

如何高效转型Al大模型领域?

作为一名在一线互联网行业奋斗多年的老兵,我深知持续学习和进步的重要性,尤其是在复杂且深入的Al大模型开发领域。为什么精准学习如此关键?

  • 系统的技术路线图:帮助你从入门到精通,明确所需掌握的知识点。
  • 高效有序的学习路径:避免无效学习,节省时间,提升效率。
  • 完整的知识体系:建立系统的知识框架,为职业发展打下坚实基础。

AI大模型从业者的核心竞争力

  • 持续学习能力:Al技术日新月异,保持学习是关键。
  • 跨领域思维:Al大模型需要结合业务场景,具备跨领域思考能力的从业者更受欢迎。
  • 解决问题的能力:AI大模型的应用需要解决实际问题,你的编程经验将大放异彩。

以前总有人问我说:老师能不能帮我预测预测将来的风口在哪里?

现在没什么可说了,一定是Al;我们国家已经提出来:算力即国力!

未来已来,大模型在未来必然走向人类的生活中,无论你是前端,后端还是数据分析,都可以在这个领域上来,我还是那句话,在大语言AI模型时代,只要你有想法,你就有结果!只要你愿意去学习,你就能卷动的过别人!

现在,你需要的只是一份清晰的转型计划和一群志同道合的伙伴。作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐