前言

这篇的基础是deepseek篇002–Windows搭建Docker+Open-WebUI部署本地模型

怎么判断是在一个局域网?

  1. 查看ip地址 & 子网掩码 是否相同,相同就是在同一局域网,否则不在同一局域网。
  2. 通过ping ip地址
    我们还可以在一个设备进行ping 另一台设备的IP地址,有数据传输,就表示在同一局域网。

步骤

在部署好本地大模型和open webui并且 设置好了如下的环境变量

OLLAMA_HOST=0.0.0.0:8080
OLLAMA_ORIGINS=*

第一步:open webui中开启设置

在这里插入图片描述
在这里插入图片描述
修改可见性public
在这里插入图片描述
更改之后,重启ollama和docker。

第二步,测试

测试ollama

http://宿主机ip:环境变量定义端口号
# OLLAMA_HOST=0.0.0.0:8080

在这里插入图片描述
出现这个则成功

测试open web ui

在其他设备中,访问http://宿主机(模型部署的那个主机)的ip地址:3000/(docker中定义的端口)

注:

如果出现访问超时情况,如下解决办法

  • 关闭宿主机的防火墙
  • 使防火墙同意 docker中设置的端口和ollama中设置的端口

结尾

如果觉得有用,记得点赞收藏哦!!!!

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐