docker拉ollama部署本地模型
mkdir -p /data/containers/ollama/datavi /data/containers/ollama/docker-compose.ymlname: 'ollama' services: ollama: restart: always image: ollama/ollama container_name: ollama runtime: nvidia environme
mkdir -p /data/containers/ollama/data
vi /data/containers/ollama/docker-compose.yml
name: 'ollama' services: ollama: restart: always image: ollama/ollama container_name: ollama runtime: nvidia environment: - TZ=Asia/Shanghai - NVIDIA_VISIBLE_DEVICES=all networks: - ai-tier ports: - "11434:11434" volumes: - ./data:/root/.ollama networks: ai-tier: name: ai-tier driver: bridge ipam: config: - subnet: 172.22.1.0/24
cd /data/containers/ollama
docker compose up -d
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)