img

你说:“帮我列下今天的会议日程。”

它迅速回复:“9 点产品部,11 点市场部,下午 2 点财务汇报。”——完美。

你接着说:“那顺便把上次年会的讨论要点也整理一下吧。”

它却停顿了片刻,回复道:“很抱歉,我找不到相关记录。”

这是当下所有大模型的共性问题:反应迅速,却没有记忆;任务执行高效,却无法延续认知。

每次对话都像“第一次见你”,每轮任务都要从头讲起,它可以生成内容,却无法积累状态,也无法进行模型迭代和学习;可以理解你这一次,却无法记住你每一次。

我们需要的,不只是会说话的模型,而是能“记得住、学得进、变得更懂你”的模型。

这,正是 MemOS(大模型记忆操作系统)想要带来的根本改变。

01| 提示词工程:大模型的原始操作方式

img

在 GPT-3 开始火起来的时候,“提示词工程(Prompt Engineering)”成了显学。

**什么叫提示词工程?**简单说,就是用人类设计的自然语言“引导”模型做事:

  • “你是一名律师,请帮我写一份合同”
  • “请总结这段文本的核心观点”
  • “根据下面的聊天内容生成一个回复”

这种方法的确打开了大模型的基本应用能力,但也存在明显问题:

每次交互都像“第一次见你”。没有记忆、没有状态、没有积累,重复一遍又一遍的撰写相似的输入。

02| 上下文工程:窗口内的聪明,窗口外的健忘

img

近期,Karpathy 大神的一个 Post 带火了 Context Engineering

为了让模型“看起来更聪明”,我们进入了 Context Engineering(上下文工程)的时代。

这一阶段的重点,不再只是写好一条 prompt,而是通过系统性设计,让大模型在任务执行中拥有更完整的背景感知能力

常见的上下文工程策略包括:

  • 拼接历史对话:将近期交互内容拼入上下文,保持会话连贯;
  • 系统指令前置与结构统一:通过“系统提示 + 用户输入 + 输出模板”格式化组织,明确行为规则;
  • 引入链式推理与任务分层:通过 step-by-step 提示、子任务拆解等方式,提升模型的任务完成能力;
  • 使用检索增强生成(RAG):引入动态文档/知识检索模块,扩展信息边界;
  • 调用外部工具/API:通过函数调用、插件等方式补齐感知和执行力;
  • 上下文压缩与剪枝:在 token 受限的前提下,筛选高价值内容、避免信息冗余。

这些实践在一定程度上提升了模型的对话连贯性与多轮任务能力,但仍存在较大瓶颈,包括:

  • 信息碎片化,管理无法精细:上下文工程没有机制区分什么信息该记、什么时候记、记到哪,怎么注入到合适的位置,任务越复杂越容易混乱。
  • 信息留不住,状态无法累积:上下文工程只能在临时窗口中拼接历史内容,模型“每次见你都像第一次”,对任务背景、用户偏好,缺乏良好的状态记忆。
  • 信息用不好,经验无法迭代:模型没有反思与动态对齐能力,只是任务执行器,无法从失败或历史中吸取经验,来帮助模型进行迭代。

因此,上下文工程是模型增强的中期过渡技术,下一阶段的关键是:引入可调度、可学习的记忆机制——这正是 MemOS 的核心使命。

03|MemOS:让大模型“记住你”的记忆操作系统

img

如果说 Prompt 是大模型的“原始命令”,Context 是它的“临时记忆”,

那 MemOS 就是它的 长期记忆系统,是真正让 AI 拥有“自我状态”的基础。

MemOS 的基本思路是对记忆进行分层管理和调度,是忆立方记忆分层大模型的落地演进

MemOS 提供什么?

  • 记忆提取与组织:自动抽取你在交互关键信息,以图结构组织记忆,支持跨轮关联
  • 记忆分层建模与调度:对不同类型的记忆进行分层管理与调度,实现灵活预测
  • 记忆可演化:根据历史的记忆进行反思,强化模型特定能力,提升模型性能
  • 记忆可转移:不同模型间共享记忆,让“小助手”也有“大脑袋”

04| 用 MemOS,让 AI 更懂你!

img

我们相信,大模型的未来不是一个“回答器”,而是一个“认知器”。

而没有持续性认知记忆的模型,都只是一次次“短暂的聪明”。

当你用 MemOS 去加载一个 AI 助理,它将能够:

✅ 记住你过去交代的长期目标

✅ 持续追踪任务状态与执行反馈

✅ 明确你在不同身份下的角色偏好

✅ 在你开口之前,预判你想做什么

05|MemOS-Preview 版本已经开源,上线 3 天 1000+ Star,600+ 用户群

img

在大模型逐渐走向多轮任务与智能体时代时,MemOS 提出了一个核心命题:

大模型,不应只拥有语言能力,还应拥有可调度且可进化的记忆能力。

MemOS 是一套面向大模型记忆管理的开源框架,Preview 版本已经完成核心模块原型构建,包括:

  • 记忆提取(Memory Extraction):自动从多轮对话中识别出任务目标、事件、偏好等关键信息
  • 记忆组织(Memory Structuring):将提取的信息按图结构或层次树组织,支持跨轮链接
  • 记忆检索(Memory Query):支持通过关键词、语义标签、时间索引等方式调用历史记忆片段
  • 记忆调度Memory Scheduling):根据用户的对话历史、偏好,将最合适的记忆放到最合适的位置

MemOS 通过标准化的 MemCube 记忆单元,将明文、激活状态和参数记忆统一在同一个框架里进行调度、融合、归档和权限管理。简单来说,模型不再只是“看完即忘”,而是拥有了持续进化和自我更新的能力。在行业看来,这种面向 AI 长期记忆的操作系统思路,或许会重塑智能系统的应用边界——让大模型真正从“静态生成器”,变成可以陪伴用户长期成长的“数字同事”和“数字助理”

系统架构和核心创新

img

在技术架构上,MemOS 参考了传统操作系统的分层理念,同时**融合了忆立方(Memory³)大模型在“记忆分层管理”方面的关键技术。**系统整体划分为三大核心层次:**接口与应用层、记忆调度控制层,以及存储与基础设施层,**构建起从前端调用到底层持久化的一体化记忆管理框架。

接口与应用层,MemOS 提供了统一、易扩展的 Memory API,开发者可通过标准接口便捷地进行记忆的新增、修改、删除、调用等操作。配合上下文工程,MemOS 让模型能够更轻松地接入多轮会话记忆、跨任务状态追踪用户偏好持久化管理等能力,显著提升大模型在复杂交互中的个性化与持续性表现。

记忆调度与管理层,MemOS 引入了一种全新的调度机制 —— 记忆调度(Memory Scheduling)范式。该机制支持基于上下文的“下一场景预测”(Next-Scene Prediction),可以在模型尚未发起调用之前,提前加载可能需要的记忆内容,从而显著降低响应延迟、优化推理效率。

图 1.  记忆调度的核心思路图 1. 记忆调度的核心思路

如上图 1 所示,MemOS 能够在不同轮次(Round)、会话(Session)甚至多智能体(Agent)协同流程中,异步预测和准备未来可能涉及的记忆片段。其核心机制是:在应用流程的关键节点部署触发器(Trigger),自动收集任务过程中的记忆线索与需求。所有触发器采集的信息将被统一送入调度监控队列(Monitoring Queue),由调度执行器(Scheduling Executor)进行消费处理。

调度器会根据调用频率、上下文相关性等策略,优先将高价值记忆片段提前加载到 MemCube 中的指定位置,包括模型的 KV Cache、明文缓存区或其他中间态存储区。这一设计显著提高了对关键记忆的“即取即用”能力,为模型提供了更快、更准、更持续的认知支撑

而在记忆存储与基础设施层,MemOS 通过标准化的 MemCube 封装,将明文记忆、激活记忆和参数记忆三种形态有机整合。它支持多种持久化存储方式,包括 Graph 数据库、向量数据库等,并具备跨模型的记忆迁移与复用能力

整体来看,MemOS 不仅在技术框架上实现了对 AI 记忆的结构化、系统化管理,也为未来构建可共享、可迁移、可学习的 AI 记忆生态奠定了基础。

🧑‍💻 欢迎加入开发者社群,一起构建 下一代面向记忆的应用研发之路~

🌐 项目官网:https://memos.openmem.net/

💻 GitHub:https://github.com/MemTensor/MemOS

06| 提示词工程、上下文工程、MemOS 的完整对比

img

尽管 Prompt Engineering 和 Context Engineering 作为大模型交互不同发展阶段的典型代表,但它们都有一个共通的局限:缺乏真正意义上的“状态感”与“个性化”

Prompt 是一次性的指令,你说一句,它答一句;

Context 是短期的记忆拼接,它能理解当下,但无法延续过往。

而 MemOS 的出现,标志着大模型从“静态对话”迈向“动态认知”的关键转折。通过持久化的记忆抽取、结构化组织与跨轮调用,模型不再只是被动响应,而能主动理解你是谁、正在做什么、过去做过什么、未来可能需要什么

正如人类的智能不仅来自于感知和反应,更来自于“能记得住并据此行动”,

MemOS 是让大模型具备“成长性”与“适应性”的技术基础。

因此,MemOS 所倡导的记忆系统,不是替代 Prompt 和 Context,而是与它们形成演进式协同

  • 用 Prompt 启动模型
  • 用 Context 优化交互
  • 用 Memory 持续积累、管理与学习

这才是下一代 AI 应用,真正走向“智能体”的必要路径。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐