1. 启动ollama服务

$ docker ps
CONTAINER ID   IMAGE                                                      COMMAND                  CREATED         STATUS                  PORTS                                                                          NAMES
ce3281b88186   a67447f85321                                               "/bin/ollama serve"      40 hours ago    Up 40 hours             0.0.0.0:11435->11434/tcp, :::11435->11434/tcp                                  ollama

如果ollama服务中没有可用的模型,需要ollama run加载模型。

2. lobechat无法连接ollama

3. 配置ollama运行跨域访问

由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS。

配置OLLAMA_ORIGINS: 

docker run -d --gpus=all -v ollama:/root/.ollama -e OLLAMA_ORIGINS="*" -p 11435:11434 --name ollama ollama/ollama

而不是:

docker run -d --gpus=all -v ollama:/root/.ollama -p 11435:11434 --name ollama ollama/ollama

参考文章:

在 LobeChat 中使用 Ollama · LobeChat Docs · LobeHub

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐