Docker中部署Ollama大模型服务的完整指南

基础部署流程

拉取Ollama镜像

从Docker Hub获取最新镜像:

docker pull ollama/ollama:latest

启动容器

执行以下命令启动容器并配置关键参数:

docker run -d \
  --name ollama \
  -p 11434:11434 \
  -v ollama-data:/root/.ollama \
  ollama/ollama:latest

参数说明

参数 作用
-d 后台运行容器
-p 11434:11434 端口映射
-v ollama-data:/root/.ollama 数据持久化
--name ollama 容器命名

验证部署

检查容器运行状态:

docker ps | grep ollama

访问http://localhost:11434,返回Ollama is running即表示成功。

核心操作指令

模型管理

# 拉取模型
docker exec -it ollama ollama pull llama3

# 运行模型
docker exec -it ollama ollama run llama3

# 列出本地模型
docker exec -it ollama ollama list

容器维护

# 进入容器
docker exec -it ollama bash

# 停止/删除容器
docker stop ollama
docker rm ollama

# 删除镜像
docker rmi ollama/ollama:latest

高级配置方案

GPU加速支持

配置NVIDIA GPU需安装nvidia-docker后添加参数:

docker run -d \
  --name ollama \
  --gpus all \
  -p 11434:11434 \
  -v ollama-data:/root/.ollama \
  ollama/ollama:latest

环境变量配置

通过-e参数设置默认模型等变量:

docker run -d \
  --name ollama \
  -e OLLAMA_MODEL="llama3" \
  -p 11434:11434 \
  ollama/ollama:latest

故障排查指南

问题现象 解决方案
端口冲突 修改映射端口(如-p 11435:11434
模型下载慢 配置国内镜像源或使用代理
GPU不可用 安装NVIDIA驱动和nvidia-container-toolkit
Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐