本地部署大语言模型-接入deepseek

出于以下不同的考虑,想本地部署大语言模型,并接入deepseek呢

  • 为了数据隐私和安全,对敏感信息进行保护,数据存储在本地可以减少数据泄露的风险。

  • 本地部署减少了网络传输时间,提高了系统的响应速度。


基于Ollama部署DeepSeek模型,你可以按照以下步骤进行:

1-创建虚拟环境:

使用conda create命令来创建一个新的虚拟环境。例如,创建一个名为myenv的Python 3.9环境:

conda create --name myenv python=3.9

激活刚刚创建的虚拟环境:

conda activate myenv

2-安装ollama依赖包:

2.1 进入ollama官网下载ollama:

https://ollama.com/download
在这里插入图片描述
下载中…
在这里插入图片描述

2.2 验证安装是否成功

安装完成后,在终端输入 ollama --version 进行验证。

ollama --version

在这里插入图片描述

3-下载DeepSeek模型

选择合适的模型,图示为deepseek-r1的7b模型,选择后,复制右侧的代码到终端中,下载该deepseek模型

ollama run deepseek-r1:7b

该命令会自动下载并运行 deepseek-r1:7b 模型。
如果你想下载其他版本,如 1.5b 、 8b 、 14b 等 ,只需选择对应的版本,运行不同的命名 。
deepseek-r1:7b 模型大概4.7G,下载起来还是挺快的。
在这里插入图片描述
下载成功界面:
在这里插入图片描述

4-验证模型是否可用

当模型下载完成后,命令行界面会提示

>>> Send a message (/? for help)  

此时你可以在命令行中输入问题或指令与DeepSeek模型进行交互。
例如,输入“使用人工智能可以做哪些事情?”,模型会根据其训练数据生成相应的回答。
在这里插入图片描述
到这里deepseek本地部署完成!
快来试一试吧~


可能我们会觉得命令行交互不够直观,想通过UI界面更好的交互,将在下一篇为大家介绍~

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐