基于 AnythingLLM UI界面跑起来!
示例流程(基于 AnythingLLM)然后: 打开 Web 页面 上传 /home/powersys/work/ 的路径 绑定本地 LMStudio 的 API(使用 GGUF 模型)我已经执行 docker-compose build 成功了。表示镜像已经构建完成,下一步就可以。
示例流程(基于 AnythingLLM)
git clone https://github.com/Mintplex-Labs/anything-llm.git cd anything-llm
docker compose up
然后: 打开 Web 页面 上传 /home/powersys/work/ 的路径 绑定本地 LMStudio 的 API(使用 GGUF 模型)
我已经执行 docker-compose build 成功了。docker [+] Building 1/1 ✔ anything-llm Built 0.0s (base) powersys@sam:~/work/anything-llm/anything-llm/docker$ docker-compose build
太好了,你已经成功执行了:
docker-compose build
表示 AnythingLLM 镜像已经构建完成,下一步就可以 启动服务并绑定你的本地 LM Studio + 上传文件夹了。
✅ 接下来的完整步骤如下:
🚀 第一步:运行容器
docker-compose up -d
这会以 后台方式 启动 AnythingLLM 的服务。你可以用下面的命令确认它是否启动成功:
docker ps
🌐 第二步:打开 Web 页面
浏览器访问:
http://localhost:3001
如果你在服务器或远程机器,请替换为对应 IP 地址。
首次打开会进入初始化页面:
-
设置管理员账号
-
设置密码
-
配置你的 LLM API 连接
📂 第三步:上传本地路径 /home/powersys/work/
在网页中:
-
点击左边的 Workspace(工作区)
-
创建一个新 Workspace
-
点击上传按钮,选择:
/home/powersys/work/⚠ 注意:如果你是容器内运行,而
work在主机上,需要将该路径挂载到容器,否则无法访问。
✅ 修改 docker-compose.yml 文件添加挂载:
打开 docker-compose.yml,加入下面这一段:
services:
anything-llm:
volumes:
- /home/powersys/work:/app/uploads/work
然后重启:
docker-compose down
docker-compose up -d
这样你就可以在 Web 界面中浏览 /home/powersys/work 内容了。
🤖 第四步:绑定本地 LM Studio(GGUF 模型)
-
打开你的 LM Studio
-
LM Studio 设置里,打开
API Server功能(OpenAI 兼容) -
记录下
本地 API 地址,通常是:
http://localhost:1234/v1
-
回到 AnythingLLM 网页 → 设置 (Settings) → Model Provider:
-
Provider:
OpenAI Compatible -
Base URL:
http://host.docker.internal:1234/v1 -
API Key: 随便写(比如
lmstudio),只要格式正确即可
-
💡
host.docker.internal用于容器内访问主机服务,适用于 Mac/Linux/Windows。如果无效,改用宿主机 IP。
✅ 最终效果
你现在完成了:
-
✅ 构建容器并运行
-
✅ 上传本地路径文件
-
✅ 连接本地 LM Studio 的 GGUF 模型
-
✅ 在浏览器使用 AnythingLLM 聊天和问答
需要我帮你生成绑定了 /home/powersys/work 和 LM Studio 的完整 docker-compose.yml 吗?
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)