本文档基于实际部署经验编写,旨在帮助你在 Windows 系统上从零开始搭建 OpenClaw,并连接本地 Ollama 模型(如 Qwen2.5 或 Qwen3),使其具备完整的智能体能力。文档包含了所有关键步骤以及常见问题的解决方案。


一、环境准备

1.1 硬件要求

  • NVIDIA GPU:建议显存 ≥8GB(如 RTX 4060/5060 系列),用于流畅运行 7B~14B 量化模型。

  • 内存:建议 ≥16GB(本文档使用 32GB 内存)。

  • 磁盘空间:至少 20GB 剩余空间用于存放模型文件。

1.2 软件要求

  • 操作系统:Windows 11(本文基于 Windows 11 测试)。

  • PowerShell:以管理员身份运行(部分操作需要)。

  • Node.js:≥18.0.0(用于安装 OpenClaw)。

  • Git(可选,用于某些技能依赖)。

1.3 检查工具版本

node --version   # 应显示 v18 以上
npm --version    # 应显示 8 以上

若无 Node.js,请前往 nodejs.org 下载 LTS 版本安装。


二、安装 Ollama 并下载模型

2.1 安装 Ollama

访问 ollama.com 下载 Windows 版本并安装。安装后 Ollama 会自动注册为系统服务,开机自启。

验证安装:

ollama --version

2.2 拉取基础模型(以 Qwen2.5 7B 为例)

ollama pull qwen2.5:7b

等待下载完成(约 4.7 GB)。

提示:若需更强的推理能力,可考虑 Qwen3 8B:

ollama pull qwen3:8b

2.3 创建支持更大上下文窗口的模型(OpenClaw 要求 ≥16K)

OpenClaw 默认要求模型上下文窗口至少 16000 tokens,而基础模型可能只有 4096,因此需要创建自定义模型。

  1. 切换到用户目录(避免权限问题):

    cd C:\Users\<你的用户名>
  2. 创建 Modelfile

    @"
    FROM qwen2.5:7b
    PARAMETER num_ctx 32768
    "@ | Out-File -Encoding ascii Modelfile
  3. 查看文件内容确认

    Get-Content Modelfile

    应显示:

    FROM qwen2.5:7b
    PARAMETER num_ctx 32768
  4. 创建新模型(例如 qwen2.5:7b-32k):

    ollama create qwen2.5:7b-32k -f Modelfile
  5. 验证模型已创建并查看上下文参数

    ollama list                     # 应看到 qwen2.5:7b-32k
    ollama show qwen2.5:7b-32k --modelfile   # 确认包含 num_ctx 32768

注意:若创建时出现 unknown type 错误,请检查 Modelfile 是否包含不可见字符,或改用 -Encoding ascii 重新生成。


三、安装 OpenClaw

3.1 使用 npm 全局安装

npm install -g openclaw

3.2 验证安装

openclaw --version

应显示类似 2026.2.22-2 的版本号。


四、配置 OpenClaw 连接本地模型

4.1 运行配置向导

openclaw onboard

4.2 按提示选择配置项

步骤 操作
Model/auth provider 选择 Custom Provider(列表最后一项)
API Base URL 输入 http://127.0.0.1:11434/v1
API Key 输入任意字符串(如 ollama),不可留空
Endpoint compatibility 选择 OpenAI-compatible
Model ID 输入你创建的模型名(如 qwen2.5:7b-32k
后续问题 全部选择 Skip for nowNo,直到完成

重要:若配置时提示 Verification failed,请先确保 Ollama 服务正在运行(可执行 ollama list 测试)。

4.3 验证配置是否成功

配置完成后,会显示 Web UI 地址(如 http://127.0.0.1:18789)和 token。你可以先不打开,直接进入 TUI 测试。


五、解决上下文窗口错误

首次启动 TUI 时可能会遇到:

Model context window too small (4096 tokens). Minimum is 16000.

这是因为 OpenClaw 从模型元数据中读取的上下文仍是 4096,虽然你已在 Ollama 中设置了 32768,但 OpenClaw 缓存了旧值。

5.1 手动修改配置文件

找到 OpenClaw 的两个 JSON 配置文件:

  • C:\Users\<用户名>\.openclaw\openclaw.json

  • C:\Users\<用户名>\.openclaw\agents\main\agent\models.json

用记事本打开,找到 models.providers.custom-127-0-0-1-11434.models 数组中 id 为你的模型名的对象,将 contextWindowmaxTokens 的值从 4096 改为 32768

示例修改后:

{
  "id": "qwen2.5:7b-32k",
  "contextWindow": 32768,
  "maxTokens": 32768,
  ...
}

保存文件后完全退出 OpenClaw TUI(按 Ctrl+C),然后重新启动:

openclaw tui

此时错误应消失,AI 可以正常对话。


六 启动 TUI 并测试对话

openclaw tui

看到类似以下界面即成功:

session agent:main:main
Wake up, my friend!

输入任意消息,AI 应能正常回复。


七、安装常用技能(扩展功能)

OpenClaw 通过技能(Skills)实现各种外部操作。目前你已就绪的技能可通过 openclaw skills list 查看。下面推荐安装一些基础且 Windows 兼容的技能。

7.1 使用 clawhub 管理技能

首先安装技能管理工具本身(只需一次):

npx clawhub install clawhub

之后你就可以在 TUI 中让 AI 帮你安装技能(例如说“安装 github 技能”),不过我们仍用命令行操作。

7.2 安装推荐技能

# 文件操作(让 AI 能保存文件到工作区)
npx clawhub install filesystem-mcp   # 或 clawdbot-filesystem
​
# GitHub 集成(需安装 gh CLI)
npx clawhub install github
​
# PDF 编辑
npx clawhub install nano-pdf
​
# 笔记同步
npx clawhub install notion
npx clawhub install obsidian
​
# 任务管理
npx clawhub install trello
​
# 摘要生成(支持 URL、本地文件)
npx clawhub install summarize
​
# 天气查询(无需 API)
npx clawhub install weather
​
# 本地语音识别
npx clawhub install openai-whisper
​
# 本地语音合成
npx clawhub install sherpa-onnx-tts

7.3 处理速率限制

若出现 Rate limit exceeded,说明未登录的匿名用户请求过多。解决方法:

  • 等待几分钟后重试。

  • 或注册 clawhub 账号并登录:npx clawhub login(按提示在浏览器中完成)。

7.4 技能安装后的必要操作

  1. 重启 OpenClaw 网关:退出 TUI(Ctrl+C)再重新运行 openclaw tui

  2. 检查技能状态openclaw skills list,确保新技能显示 ✓ ready。若仍为 ✗ missing,说明缺少外部依赖(如 CLI 工具),请根据提示安装。

    • 例如 github 需要安装 GitHub CLI

    • obsidian 需要安装 obsidian-cli

    • filesystem-mcp 可能需要配置允许访问的路径。


八、常见问题及解决方法

Q1: 执行 ollama serve 提示端口 11434 被占用

原因:Ollama 已在后台运行(作为系统服务)。 解决:直接使用即可,无需手动启动。若需重启,可在任务管理器中结束 ollama.exe 进程,然后重新运行 ollama serve

Q2: OpenClaw 配置时提示 Verification failed: This operation was aborted

可能原因

  • Ollama 服务未运行 → 运行 ollama list 测试。

  • API Key 留空 → 必须填入任意字符串。

  • Base URL 末尾缺少 /v1 → 应填写 http://127.0.0.1:11434/v1

Q3: 启动 TUI 后仍报上下文窗口过小,但已修改配置文件

解决:确保你修改的是正确的模型条目(即你实际使用的模型 ID)。修改后务必完全退出 TUI(按 Ctrl+C),并重启 OpenClaw 网关(重新运行 openclaw tui)。若仍无效,可尝试删除 ~/.openclaw/agents/main/agent/models.json 让系统重新生成(先备份)。

Q4: 技能安装后状态仍为 ✗ missing

原因:技能依赖的外部工具未安装或未加入 PATH。 解决:查看技能描述,安装所需 CLI 工具。例如:

  • github → 安装 gh

  • obsidian → 安装 obsidian-cli

  • openai-whisper → 下载 whisper.cpp 的 Windows 可执行文件并加入 PATH。

Q5: 技能安装时遇到 Rate limit exceeded

解决:等待 10-15 分钟后再试,或使用 npx clawhub login 登录以提高限额。

Q6: AI 无法将文件保存到桌面(权限问题)

默认权限:AI 只能读写 OpenClaw 工作区目录 ~/.openclaw/workspace临时方案:让 AI 将文件保存到工作区,然后你手动复制到桌面。 进阶方案:配置 filesystem-mcp 技能,允许访问额外路径(需修改技能配置,较复杂,按需查阅文档)。

Q7: Windows 上哪些技能不可用?

依赖 macOS 专有框架的技能无法使用,例如:

  • apple-notes, bear-notes, apple-reminders, things-mac, bluebubbles, imsg


九、下一步

现在你的 OpenClaw 已经具备了基础的对话能力,并安装了实用的技能。你可以:

  • 在 TUI 中尝试让 AI 帮你总结文档、管理 GitHub、生成图像等。

  • 探索更多技能:npx clawhub search <关键词>

  • 配置消息通道(如 Telegram),让 AI 接入即时通讯。

如果遇到任何问题,欢迎查阅 OpenClaw 官方文档 docs.openclaw.ai 或在社区寻求帮助。祝你使用愉快!

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐