Docker中部署Ollama大模型服务的完整指南
本文详细介绍了在Docker中部署Ollama大模型服务的完整流程。从基础部署(镜像拉取、容器启动)到核心操作(模型管理、容器维护),再到高级配置(GPU加速、环境变量),提供了详细命令和参数说明。同时包含常见问题排查指南,如端口冲突、下载慢等解决方案。通过Docker的容器化部署方式,可快速搭建Ollama服务并实现数据持久化,支持GPU加速提升性能。适合开发者快速上手部署大模型服务环境。
·
Docker中部署Ollama大模型服务的完整指南
基础部署流程
拉取Ollama镜像
从Docker Hub获取最新镜像:
docker pull ollama/ollama:latest
启动容器
执行以下命令启动容器并配置关键参数:
docker run -d \
--name ollama \
-p 11434:11434 \
-v ollama-data:/root/.ollama \
ollama/ollama:latest
参数说明:
| 参数 | 作用 |
|---|---|
-d |
后台运行容器 |
-p 11434:11434 |
端口映射 |
-v ollama-data:/root/.ollama |
数据持久化 |
--name ollama |
容器命名 |
验证部署
检查容器运行状态:
docker ps | grep ollama
访问http://localhost:11434,返回Ollama is running即表示成功。
核心操作指令
模型管理
# 拉取模型
docker exec -it ollama ollama pull llama3
# 运行模型
docker exec -it ollama ollama run llama3
# 列出本地模型
docker exec -it ollama ollama list
容器维护
# 进入容器
docker exec -it ollama bash
# 停止/删除容器
docker stop ollama
docker rm ollama
# 删除镜像
docker rmi ollama/ollama:latest
高级配置方案
GPU加速支持
配置NVIDIA GPU需安装nvidia-docker后添加参数:
docker run -d \
--name ollama \
--gpus all \
-p 11434:11434 \
-v ollama-data:/root/.ollama \
ollama/ollama:latest
环境变量配置
通过-e参数设置默认模型等变量:
docker run -d \
--name ollama \
-e OLLAMA_MODEL="llama3" \
-p 11434:11434 \
ollama/ollama:latest
故障排查指南
| 问题现象 | 解决方案 |
|---|---|
| 端口冲突 | 修改映射端口(如-p 11435:11434) |
| 模型下载慢 | 配置国内镜像源或使用代理 |
| GPU不可用 | 安装NVIDIA驱动和nvidia-container-toolkit |
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)