deepseek 本地部署
右键图标,会出现退出的按钮「Quit Ollama」,注意:一定要退出Ollama,否则下边的环境配置无法生效!在 Chatbox 中打开设置,在模型提供方中选择 Ollama,即可在模型下拉框中看见你运行的本地模型。安装完成后,会在电脑右下角出现Ollama图标,可以不用先启动Ollama,先退出做一些必要路径的配置!双击安装文件,点击「Install」开始安装。点击后,会弹出一个网页,我们点击
一、安装
首先Ollama官网点击下载:https://ollama.com/
由于我本地是Windows,所以在这儿点击下载Windows
下载结束后,点击安装
双击安装文件,点击「Install」开始安装。目前的Ollama会默认安装到C盘,路径如下:C:\Users%username%\AppData\Local\Programs\Ollama,并不会让用户自定义选择安装路径。
更改路径1:
安装时指定自定义路径
在初次安装 Ollama 时,通过命令行参数直接指定目标路径:
- 下载安装包:获取
OllamaSetup.exe(可通过官网或镜像地址下载)。 - 通过命令行安装:
powershell
# 示例:将 Ollama 安装到 D 盘指定目录 .\OllamaSetup.exe /DIR="D:\AI_Tools\Ollama"- 参数说明:
/DIR=后接自定义路径(需为英文路径且无空格)。 - 验证:安装界面显示提取文件的路径为自定义目录即成功
- 参数说明:
更改路径2:
若已安装且需迁移目录,需手动操作:
- 停止 Ollama 服务:通过任务管理器结束相关进程。
- 移动安装文件夹:
- 原默认路径:
C:\Users\<用户名>\AppData\Local\Programs\Ollama - 剪切至新路径(如
D:\Ollama)。
- 原默认路径:
- 更新环境变量:
- 修改系统变量
Path,将旧路径替换为新路径
- 修改系统变量
安装完成后,会在电脑右下角出现Ollama图标,可以不用先启动Ollama,先退出做一些必要路径的配置!

右键图标,会出现退出的按钮「Quit Ollama」,注意:一定要退出Ollama,否则下边的环境配置无法生效!
Ollama 默认会随 Windows 自动启动,可以在「文件资源管理器」的地址栏中访问以下路径,删除其中的Ollama.lnk快捷方式文件,阻止它自动启动。
%APPDATA%\Microsoft\Windows\Start Menu\Programs\Startup
二、配置
Ollama 的默认模型存储路径如下:C:\Users%username%.ollama\models,无论 C 盘空间大小,需要安装多少模型,都建议换一个存放路径到其它盘,否则会影响电脑运行速度。
配置环境变量(必须)
打开「系统环境变量」,新建一个系统变量OLLAMA_MODELS ,然后设置ollama模型的存储路径。
变量名:OLLAMA_MODELS
变量值(路径):F:\ollama\models

配置端口(可选)
Ollama API 的默认访问地址和侦听端口是http://localhost:11434,只能在装有 Ollama 的系统中直接调用。如果要在网络中提供服务,请修改 API 的侦听地址和端口(在系统环境变量里设置): 变量名:OLLAMA_HOST
变量值(端口)::8000
只填写端口号可以同时侦听(所有) IPv4 和 IPv6 的:8000 端口。(变量值的端口前号前有个冒号:)
注:要使用 IPv6,需要 Ollama 0.0.20 或更高版本。另外,可能需要在 Windows 防火墙中开放相应端口的远程访问。

允许浏览器跨域请求(可选)
Ollama 默认只允许来自127.0.0.1和0.0.0.0的跨域请求,如果你计划在其它前端面板中调用 Ollama API,比如Open WebUI,建议放开跨域限制:
变量名:OLLAMA_ORIGINS
变量值:*

三、运行
将上述更改的环境变量保存后,在「开始」菜单中找到并重新启动 Ollama。找到ollama.exe的所在位置,在该位置打开cmd
ollama run deepseek-r1:7b
| 维度 | 蒸馏版(1.5B-70B) | 满血版(671B) |
|---|---|---|
| 技术架构 | 基于Llama、Qwen等开源模型蒸馏,4-bit/8-bit量化压缩体积 | 基于DeepSeek-V3架构,采用MoE专家混合模型,无需依赖监督微调 |
| 硬件需求 | 显存需求低(4GB-24GB),支持个人PC或中端服务器 | 需多卡并行(如8×A100),显存≥350GB,仅适合专业服务器集群 |
| 推理精度 | 牺牲部分精度换取部署可行性,推理速度较快 | 保持最高精度,推理速度受显存带宽限制 |
| 适用场景 | 轻量级任务(聊天机器人)、中型企业数据分析 | 复杂科研任务(如自然语言处理、超大规模AI训练) |
好的,我们现在已经将Ollama安装完毕,
运行1:接下来该安装浏览器插件——Page Assist
点击后,会弹出一个网页,我们点击左上角,选择刚刚安装好的,再点右上角的设置

运行2:chatbox
在 Chatbox 中打开设置,在模型提供方中选择 Ollama,即可在模型下拉框中看见你运行的本地模型。

点击保存,即可正常聊天使用。
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐


所有评论(0)