DeepSeek 通过 ollama 轻松本地部署
Part one进入 ollama的官网下载ollama默认安装在 C 盘,直接点击 install 即可。
·
Part one
进入 ollama的官网 Download Ollama on Windows 下载ollama

默认安装在 C 盘,直接点击 install 即可

Part two
安装要运行的大模型,这里选择deepseek r1 1.5b的。同样进入官网 Ollama ;点击 Models。

这里选择deepseek-r1

选择 1.5b ,然后复制以下命令。

打开cmd,在cmd中运行 `ollama run deepseek-r1:1.5b` 该命令,直到下载完成。

Part three
测试:

Part four
问题1:deepseek r1被下载到了哪个位置?

问题2:如何查看ollama安装了哪些大模型?

问题3:如何退出正在使用的大模型?

问题3:如何删除安装过的大模型?输入以下命令即可删除。

问题4:大模型默认安装在C盘,有什么办法的可以解决将其安装在D盘?
先关闭ollama,即右键退出。

在系统环境变量中如下添加,其中变量值可以改成你自己想要的D盘目录。

找到默认的模型文件存放位置,全部Ctrl + X 剪切到自己设置的路径,如上图设置的是D:\llm\models,即放到llm文件夹中,注意不是D:\llm\models\models,复制完成后是成为D:\llm\models。

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐

所有评论(0)