ollama服务相关:

systemctl stop ollama    # 停止服务
systemctl start ollama    # 开启服务
systemctl restart ollama    # 重启服务
systemctl status ollama    # 查询ollama服务状态
curl http://localhost:11434    # 确认ollama是否运行

模型相关:

ollama pull qwen3:8b  # 下载8B模型(不自动运行)
ollama run qwen3:4b   # 下载并直接运行4B模型
ollama list    # 查看已下载模型列表

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐