OpenClaw 本地部署完整指南(Windows + Ollama)
本文档基于实际部署经验编写,旨在帮助你在 Windows 系统上从零开始搭建 OpenClaw,并连接本地 Ollama 模型(如 Qwen2.5 或 Qwen3),使其具备完整的智能体能力。文档包含了所有关键步骤以及常见问题的解决方案。
本文档基于实际部署经验编写,旨在帮助你在 Windows 系统上从零开始搭建 OpenClaw,并连接本地 Ollama 模型(如 Qwen2.5 或 Qwen3),使其具备完整的智能体能力。文档包含了所有关键步骤以及常见问题的解决方案。
一、环境准备
1.1 硬件要求
-
NVIDIA GPU:建议显存 ≥8GB(如 RTX 4060/5060 系列),用于流畅运行 7B~14B 量化模型。
-
内存:建议 ≥16GB(本文档使用 32GB 内存)。
-
磁盘空间:至少 20GB 剩余空间用于存放模型文件。
1.2 软件要求
-
操作系统:Windows 11(本文基于 Windows 11 测试)。
-
PowerShell:以管理员身份运行(部分操作需要)。
-
Node.js:≥18.0.0(用于安装 OpenClaw)。
-
Git(可选,用于某些技能依赖)。
1.3 检查工具版本
node --version # 应显示 v18 以上
npm --version # 应显示 8 以上
若无 Node.js,请前往 nodejs.org 下载 LTS 版本安装。
二、安装 Ollama 并下载模型
2.1 安装 Ollama
访问 ollama.com 下载 Windows 版本并安装。安装后 Ollama 会自动注册为系统服务,开机自启。
验证安装:
ollama --version
2.2 拉取基础模型(以 Qwen2.5 7B 为例)
ollama pull qwen2.5:7b
等待下载完成(约 4.7 GB)。
提示:若需更强的推理能力,可考虑 Qwen3 8B:
ollama pull qwen3:8b
2.3 创建支持更大上下文窗口的模型(OpenClaw 要求 ≥16K)
OpenClaw 默认要求模型上下文窗口至少 16000 tokens,而基础模型可能只有 4096,因此需要创建自定义模型。
-
切换到用户目录(避免权限问题):
cd C:\Users\<你的用户名> -
创建 Modelfile:
@" FROM qwen2.5:7b PARAMETER num_ctx 32768 "@ | Out-File -Encoding ascii Modelfile -
查看文件内容确认:
Get-Content Modelfile应显示:
FROM qwen2.5:7b PARAMETER num_ctx 32768 -
创建新模型(例如
qwen2.5:7b-32k):ollama create qwen2.5:7b-32k -f Modelfile -
验证模型已创建并查看上下文参数:
ollama list # 应看到 qwen2.5:7b-32k ollama show qwen2.5:7b-32k --modelfile # 确认包含 num_ctx 32768
注意:若创建时出现
unknown type错误,请检查 Modelfile 是否包含不可见字符,或改用-Encoding ascii重新生成。
三、安装 OpenClaw
3.1 使用 npm 全局安装
npm install -g openclaw
3.2 验证安装
openclaw --version
应显示类似 2026.2.22-2 的版本号。
四、配置 OpenClaw 连接本地模型
4.1 运行配置向导
openclaw onboard
4.2 按提示选择配置项
| 步骤 | 操作 |
|---|---|
| Model/auth provider | 选择 Custom Provider(列表最后一项) |
| API Base URL | 输入 http://127.0.0.1:11434/v1 |
| API Key | 输入任意字符串(如 ollama),不可留空 |
| Endpoint compatibility | 选择 OpenAI-compatible |
| Model ID | 输入你创建的模型名(如 qwen2.5:7b-32k) |
| 后续问题 | 全部选择 Skip for now 或 No,直到完成 |
重要:若配置时提示
Verification failed,请先确保 Ollama 服务正在运行(可执行ollama list测试)。
4.3 验证配置是否成功
配置完成后,会显示 Web UI 地址(如 http://127.0.0.1:18789)和 token。你可以先不打开,直接进入 TUI 测试。
五、解决上下文窗口错误
首次启动 TUI 时可能会遇到:
Model context window too small (4096 tokens). Minimum is 16000.
这是因为 OpenClaw 从模型元数据中读取的上下文仍是 4096,虽然你已在 Ollama 中设置了 32768,但 OpenClaw 缓存了旧值。
5.1 手动修改配置文件
找到 OpenClaw 的两个 JSON 配置文件:
-
C:\Users\<用户名>\.openclaw\openclaw.json -
C:\Users\<用户名>\.openclaw\agents\main\agent\models.json
用记事本打开,找到 models.providers.custom-127-0-0-1-11434.models 数组中 id 为你的模型名的对象,将 contextWindow 和 maxTokens 的值从 4096 改为 32768。
示例修改后:
{
"id": "qwen2.5:7b-32k",
"contextWindow": 32768,
"maxTokens": 32768,
...
}
保存文件后完全退出 OpenClaw TUI(按 Ctrl+C),然后重新启动:
openclaw tui
此时错误应消失,AI 可以正常对话。
六 启动 TUI 并测试对话
openclaw tui
看到类似以下界面即成功:
session agent:main:main
Wake up, my friend!
输入任意消息,AI 应能正常回复。
七、安装常用技能(扩展功能)
OpenClaw 通过技能(Skills)实现各种外部操作。目前你已就绪的技能可通过 openclaw skills list 查看。下面推荐安装一些基础且 Windows 兼容的技能。
7.1 使用 clawhub 管理技能
首先安装技能管理工具本身(只需一次):
npx clawhub install clawhub
之后你就可以在 TUI 中让 AI 帮你安装技能(例如说“安装 github 技能”),不过我们仍用命令行操作。
7.2 安装推荐技能
# 文件操作(让 AI 能保存文件到工作区)
npx clawhub install filesystem-mcp # 或 clawdbot-filesystem
# GitHub 集成(需安装 gh CLI)
npx clawhub install github
# PDF 编辑
npx clawhub install nano-pdf
# 笔记同步
npx clawhub install notion
npx clawhub install obsidian
# 任务管理
npx clawhub install trello
# 摘要生成(支持 URL、本地文件)
npx clawhub install summarize
# 天气查询(无需 API)
npx clawhub install weather
# 本地语音识别
npx clawhub install openai-whisper
# 本地语音合成
npx clawhub install sherpa-onnx-tts
7.3 处理速率限制
若出现 Rate limit exceeded,说明未登录的匿名用户请求过多。解决方法:
-
等待几分钟后重试。
-
或注册 clawhub 账号并登录:
npx clawhub login(按提示在浏览器中完成)。
7.4 技能安装后的必要操作
-
重启 OpenClaw 网关:退出 TUI(
Ctrl+C)再重新运行openclaw tui。 -
检查技能状态:
openclaw skills list,确保新技能显示✓ ready。若仍为✗ missing,说明缺少外部依赖(如 CLI 工具),请根据提示安装。-
例如
github需要安装 GitHub CLI。 -
obsidian需要安装 obsidian-cli。 -
filesystem-mcp可能需要配置允许访问的路径。
-
八、常见问题及解决方法
Q1: 执行 ollama serve 提示端口 11434 被占用
原因:Ollama 已在后台运行(作为系统服务)。 解决:直接使用即可,无需手动启动。若需重启,可在任务管理器中结束 ollama.exe 进程,然后重新运行 ollama serve。
Q2: OpenClaw 配置时提示 Verification failed: This operation was aborted
可能原因:
-
Ollama 服务未运行 → 运行
ollama list测试。 -
API Key 留空 → 必须填入任意字符串。
-
Base URL 末尾缺少
/v1→ 应填写http://127.0.0.1:11434/v1。
Q3: 启动 TUI 后仍报上下文窗口过小,但已修改配置文件
解决:确保你修改的是正确的模型条目(即你实际使用的模型 ID)。修改后务必完全退出 TUI(按 Ctrl+C),并重启 OpenClaw 网关(重新运行 openclaw tui)。若仍无效,可尝试删除 ~/.openclaw/agents/main/agent/models.json 让系统重新生成(先备份)。
Q4: 技能安装后状态仍为 ✗ missing
原因:技能依赖的外部工具未安装或未加入 PATH。 解决:查看技能描述,安装所需 CLI 工具。例如:
-
github→ 安装gh -
obsidian→ 安装obsidian-cli -
openai-whisper→ 下载 whisper.cpp 的 Windows 可执行文件并加入 PATH。
Q5: 技能安装时遇到 Rate limit exceeded
解决:等待 10-15 分钟后再试,或使用 npx clawhub login 登录以提高限额。
Q6: AI 无法将文件保存到桌面(权限问题)
默认权限:AI 只能读写 OpenClaw 工作区目录 ~/.openclaw/workspace。 临时方案:让 AI 将文件保存到工作区,然后你手动复制到桌面。 进阶方案:配置 filesystem-mcp 技能,允许访问额外路径(需修改技能配置,较复杂,按需查阅文档)。
Q7: Windows 上哪些技能不可用?
依赖 macOS 专有框架的技能无法使用,例如:
-
apple-notes,bear-notes,apple-reminders,things-mac,bluebubbles,imsg。
九、下一步
现在你的 OpenClaw 已经具备了基础的对话能力,并安装了实用的技能。你可以:
-
在 TUI 中尝试让 AI 帮你总结文档、管理 GitHub、生成图像等。
-
探索更多技能:
npx clawhub search <关键词>。 -
配置消息通道(如 Telegram),让 AI 接入即时通讯。
如果遇到任何问题,欢迎查阅 OpenClaw 官方文档 docs.openclaw.ai 或在社区寻求帮助。祝你使用愉快!
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐



所有评论(0)