示例流程(基于 AnythingLLM)

git clone https://github.com/Mintplex-Labs/anything-llm.git cd anything-llm

docker compose up

然后: 打开 Web 页面 上传 /home/powersys/work/ 的路径 绑定本地 LMStudio 的 API(使用 GGUF 模型)

我已经执行 docker-compose build 成功了。docker [+] Building 1/1 ✔ anything-llm Built 0.0s (base) powersys@sam:~/work/anything-llm/anything-llm/docker$ docker-compose build

太好了,你已经成功执行了:

docker-compose build

表示 AnythingLLM 镜像已经构建完成,下一步就可以 启动服务并绑定你的本地 LM Studio + 上传文件夹了


✅ 接下来的完整步骤如下:


🚀 第一步:运行容器

docker-compose up -d

这会以 后台方式 启动 AnythingLLM 的服务。你可以用下面的命令确认它是否启动成功:

docker ps

🌐 第二步:打开 Web 页面

浏览器访问:

http://localhost:3001

如果你在服务器或远程机器,请替换为对应 IP 地址。

首次打开会进入初始化页面:

  • 设置管理员账号

  • 设置密码

  • 配置你的 LLM API 连接


📂 第三步:上传本地路径 /home/powersys/work/

在网页中:

  1. 点击左边的 Workspace(工作区)

  2. 创建一个新 Workspace

  3. 点击上传按钮,选择:

    /home/powersys/work/
    

    ⚠ 注意:如果你是容器内运行,而 work 在主机上,需要将该路径挂载到容器,否则无法访问。

✅ 修改 docker-compose.yml 文件添加挂载:

打开 docker-compose.yml,加入下面这一段:

services:
  anything-llm:
    volumes:
      - /home/powersys/work:/app/uploads/work

然后重启:

docker-compose down
docker-compose up -d

这样你就可以在 Web 界面中浏览 /home/powersys/work 内容了。


🤖 第四步:绑定本地 LM Studio(GGUF 模型)

  1. 打开你的 LM Studio

  2. LM Studio 设置里,打开 API Server 功能(OpenAI 兼容)

  3. 记录下 本地 API 地址,通常是:

http://localhost:1234/v1
  1. 回到 AnythingLLM 网页 → 设置 (Settings) → Model Provider:

    • Provider: OpenAI Compatible

    • Base URL: http://host.docker.internal:1234/v1

    • API Key: 随便写(比如 lmstudio),只要格式正确即可

💡 host.docker.internal 用于容器内访问主机服务,适用于 Mac/Linux/Windows。如果无效,改用宿主机 IP。


✅ 最终效果

你现在完成了:

  • ✅ 构建容器并运行

  • ✅ 上传本地路径文件

  • ✅ 连接本地 LM Studio 的 GGUF 模型

  • ✅ 在浏览器使用 AnythingLLM 聊天和问答


需要我帮你生成绑定了 /home/powersys/work 和 LM Studio 的完整 docker-compose.yml 吗?

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐