deepseek篇004--Windows搭建Docker+Open-WebUI部署本地模型后=实现局域网连接=
这篇的基础是deepseek篇002–Windows搭建Docker+Open-WebUI部署本地模型。
·
前言
这篇的基础是deepseek篇002–Windows搭建Docker+Open-WebUI部署本地模型
怎么判断是在一个局域网?
- 查看ip地址 & 子网掩码 是否相同,相同就是在同一局域网,否则不在同一局域网。
- 通过ping ip地址
我们还可以在一个设备进行ping 另一台设备的IP地址,有数据传输,就表示在同一局域网。
步骤
在部署好本地大模型和open webui并且 设置好了如下的环境变量
OLLAMA_HOST=0.0.0.0:8080
OLLAMA_ORIGINS=*
第一步:open webui中开启设置


修改可见性为public
更改之后,重启ollama和docker。
第二步,测试
测试ollama
http://宿主机ip:环境变量定义端口号
# OLLAMA_HOST=0.0.0.0:8080

出现这个则成功
测试open web ui
在其他设备中,访问http://宿主机(模型部署的那个主机)的ip地址:3000/(docker中定义的端口)
注:
如果出现访问超时情况,如下解决办法
- 关闭宿主机的防火墙
- 使防火墙同意 docker中设置的端口和ollama中设置的端口
结尾
如果觉得有用,记得点赞收藏哦!!!!
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)