lobechat调用ollama模型,服务连接失败
如果ollama服务中没有可用的模型,需要ollama run加载模型。
·
1. 启动ollama服务
$ docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
ce3281b88186 a67447f85321 "/bin/ollama serve" 40 hours ago Up 40 hours 0.0.0.0:11435->11434/tcp, :::11435->11434/tcp ollama
如果ollama服务中没有可用的模型,需要ollama run加载模型。
2. lobechat无法连接ollama

3. 配置ollama运行跨域访问
由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS。
配置OLLAMA_ORIGINS:
docker run -d --gpus=all -v ollama:/root/.ollama -e OLLAMA_ORIGINS="*" -p 11435:11434 --name ollama ollama/ollama
而不是:
docker run -d --gpus=all -v ollama:/root/.ollama -p 11435:11434 --name ollama ollama/ollama


参考文章:
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)