DeepSeek本地部署,保姆级教程,谁都可以照抄!!
恭喜你!至此已成功在本地部署 DeepSeek 模型。📝 自动写作💻 编程辅助🌐 语言翻译📚 学习问答🔍 知识检索完全免费!完全离线!完全自由!
你是否曾经羡慕那些大模型的神奇能力,却苦于没有服务器资源?
你是否想要一个完全在自己电脑上运行的AI助手,保护隐私的同时还能无限调用?
今天,这篇教程就是为你量身定制!
我将手把手教你如何在个人电脑上部署 DeepSeek 模型,实现真正的「本地AI自由」!
一、DeepSeek 是什么?
DeepSeek 是由「深度求索」团队研发的大语言模型系列,其特点是:
✅ 中文能力极强
✅ 开源免费
✅ 支持本地部署
✅ 模型尺寸丰富(7B、13B、33B 等)
✅ 支持对话、写作、编程、翻译等场景
特别适合个人开发者、学生党、技术爱好者使用!
二、准备环境:安装基础软件
2.1 安装 Python
DeepSeek 运行依赖 Python 环境。推荐使用 Python 3.10 或以上版本。
👉 安装方法:
- 访问 Python官网
- 下载对应操作系统的安装包(Windows / macOS / Linux)
- 安装时务必勾选 “Add Python to PATH”
安装完成后,在命令行输入以下命令验证:
python --version
如果显示类似 Python 3.10.12 的版本号,说明安装成功!
2.2 安装 PyTorch
PyTorch 是运行大模型的必备框架。安装命令如下:
pip install torch torchvision torchaudio
👉 注意:如果你有 NVIDIA 显卡,建议安装带 CUDA 支持的版本(加速推理):
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
2.3 安装 Hugging Face Transformers
Transformers 库是加载和运行模型的核心:
pip install transformers
2.4 安装其他依赖
pip install accelerate sentencepiece protobuf
三、下载 DeepSeek 模型
3.1 模型选择
DeepSeek 提供多个尺寸的模型,例如:
deepseek-ai/deepseek-llm-7b-chat(7B 中文对话模型)deepseek-ai/deepseek-coder-6.7b-instruct(编程专用模型)
我们以 deepseek-llm-7b-chat 为例演示。
3.2 使用 Hugging Face CLI 下载
打开命令行,输入:
huggingface-cli download deepseek-ai/deepseek-llm-7b-chat --local-dir ./deepseek-7b
👉 提示:
模型较大(约 14GB),请确保磁盘空间充足!
如果下载慢,可使用国内镜像(如 OpenI 镜像):
HF_ENDPOINT=https://hf-mirror.com huggingface-cli download ...
四、本地部署与运行
4.1 编写 Python 推理脚本
创建一个文件 deepseek_local.py,内容如下:
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
# 指定模型路径(刚才下载的位置)
model_path = "./deepseek-7b"
# 加载模型与分词器
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(
model_path,
torch_dtype=torch.bfloat16, # 节省显存
device_map="auto", # 自动分配至 GPU/CPU
)
# 输入你的问题
prompt = "你好,请问你能帮我写一首关于春天的诗吗?"
# 编码并生成回复
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=256)
# 解码并打印结果
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print("DeepSeek 回答:")
print(response)
4.2 运行脚本!
在命令行执行:
python deepseek_local.py
等待模型加载(第一次较慢),你就能看到 DeepSeek 的回复啦!
⚙️ 五、高级配置(可选但推荐)
5.1 使用 GPU 加速
如果你有 NVIDIA 显卡,请安装 CUDA 驱动,并在代码中加入:
model = model.to('cuda') # 将模型移至 GPU
5.2 量化压缩(节省显存)
如果显存不足(如 < 8GB),可使用 4-bit 量化:
from transformers import BitsAndBytesConfig
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_quant_type="nf4",
)
model = AutoModelForCausalLM.from_pretrained(
model_path,
quantization_config=bnb_config, # 启用4-bit量化
...
)
5.3 使用 GGUF 格式(CPU 友好)
如果只有 CPU,建议下载 GGUF 格式的模型(如通过 llama.cpp 运行):
huggingface-cli download deepseek-ai/deepseek-llm-7b-chat-GGUF --local-dir ./deepseek-7b-gguf
然后使用 llama-cpp-python 加载:
from llama_cpp import Llama
model = Llama(
model_path="./deepseek-7b-gguf/deepseek-llm-7b-chat.Q4_K_M.gguf",
n_ctx=2048,
n_gpu_layers=0, # 纯CPU运行
)
六、常见问题解答(Q&A)
Q1:模型太大,电脑跑不动怎么办?
✅ 方案:
- 使用更小模型(如 DeepSeek-Coder 1.3B)
- 开启 4-bit 量化(见 5.2)
- 使用 CPU + GGUF 格式(见 5.3)
Q2:提示 “OutOfMemoryError” 怎么解决?
✅ 方案:
- 减小
max_new_tokens(如改为 128) - 开启量化
- 升级显卡或租用云 GPU
Q3:如何实现多轮对话?
✅ 方案:
在 prompt 中拼接历史对话:
history = [
{"role": "user", "content": "你好"},
{"role": "assistant", "content": "你好!我是DeepSeek。"}
]
new_question = "你会写代码吗?"
# 将历史转为文本
full_prompt = "\n".join([f"{msg['role']}: {msg['content']}" for msg in history])
full_prompt += f"\nuser: {new_question}"
七、结语
恭喜你!至此已成功在本地部署 DeepSeek 模型。
你可以用它来:
- 📝 自动写作
- 💻 编程辅助
- 🌐 语言翻译
- 📚 学习问答
- 🔍 知识检索
完全免费!完全离线!完全自由!
🔧 附:进阶玩法
- 使用
text-generation-webui搭建 Web 对话界面 - 结合 LangChain 构建 AI Agent
- 微调(Fine-tune)专属模型
如果这篇教程对你有帮助,欢迎点赞🌟收藏⭐转发➰!
遇到问题?在评论区留言,我会一一回复!
如何学习AI大模型?
作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,免费领取【保证100%免费】
一、全套AGI大模型学习路线
AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。
AI大模型商业化落地方案

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)