本地部署大模型

ollama介绍

Ollama的作用

Ollama是一个轻量级的大型语言模型(LLM)软件引擎,用于快速部署和运行大型语言模型。它负责模型的加载和服务器端的推理,确保模型能够快速响应请求。

本地部署DeepSeek时需要Ollama的原因

在本地部署DeepSeek时,需要安装和配置Ollama,因为它负责以下任务:
‌模型文件的解析和加载‌:Ollama负责解析和加载DeepSeek所需的模型文件。
‌本地服务器端的推理逻辑‌:Ollama处理服务器端的推理逻辑,确保模型能够快速响应请求。

ollama安装

前提:需要外网哦

1、下载OllamaSetup

地址:https://ollama.com/
在这里插入图片描述

2、双击安装

点击install,等待安装
在这里插入图片描述

3、验证是否安装成功

安装完之后,打开cmd窗口,验证是否安装成功

ollama -v

在这里插入图片描述

4、下载模型

下载deepseek的1.5b的大模型,太大的本地跑不了

ollama pull deepseek-r1:1.5b

在这里插入图片描述

5、运行模型模型

下载完之后可以运行deepseek模型

ollama run deepseek-r1:1.5b

可以问他问题
在这里插入图片描述

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐