你是否曾经羡慕那些大模型的神奇能力,却苦于没有服务器资源?
你是否想要一个完全在自己电脑上运行的AI助手,保护隐私的同时还能无限调用?
今天,这篇教程就是为你量身定制!
我将手把手教你如何在个人电脑上部署 DeepSeek 模型,实现真正的「本地AI自由」!


一、DeepSeek 是什么?

DeepSeek 是由「深度求索」团队研发的大语言模型系列,其特点是:
✅ 中文能力极强
✅ 开源免费
✅ 支持本地部署
✅ 模型尺寸丰富(7B、13B、33B 等)
✅ 支持对话、写作、编程、翻译等场景

特别适合个人开发者、学生党、技术爱好者使用!


二、准备环境:安装基础软件

2.1 安装 Python

DeepSeek 运行依赖 Python 环境。推荐使用 Python 3.10 或以上版本。

👉 安装方法:

  1. 访问 Python官网
  2. 下载对应操作系统的安装包(Windows / macOS / Linux)
  3. 安装时务必勾选 “Add Python to PATH”

安装完成后,在命令行输入以下命令验证:

python --version

如果显示类似 Python 3.10.12 的版本号,说明安装成功!

2.2 安装 PyTorch

PyTorch 是运行大模型的必备框架。安装命令如下:

pip install torch torchvision torchaudio

👉 注意:如果你有 NVIDIA 显卡,建议安装带 CUDA 支持的版本(加速推理):

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

2.3 安装 Hugging Face Transformers

Transformers 库是加载和运行模型的核心:

pip install transformers

2.4 安装其他依赖

pip install accelerate sentencepiece protobuf

 三、下载 DeepSeek 模型

3.1 模型选择

DeepSeek 提供多个尺寸的模型,例如:

  • deepseek-ai/deepseek-llm-7b-chat(7B 中文对话模型)
  • deepseek-ai/deepseek-coder-6.7b-instruct(编程专用模型)

我们以 deepseek-llm-7b-chat 为例演示。

3.2 使用 Hugging Face CLI 下载

打开命令行,输入:

huggingface-cli download deepseek-ai/deepseek-llm-7b-chat --local-dir ./deepseek-7b

👉 提示:
模型较大(约 14GB),请确保磁盘空间充足!
如果下载慢,可使用国内镜像(如 OpenI 镜像):

HF_ENDPOINT=https://hf-mirror.com huggingface-cli download ...

 四、本地部署与运行

4.1 编写 Python 推理脚本

创建一个文件 deepseek_local.py,内容如下:

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

# 指定模型路径(刚才下载的位置)
model_path = "./deepseek-7b"

# 加载模型与分词器
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(
    model_path,
    torch_dtype=torch.bfloat16,  # 节省显存
    device_map="auto",            # 自动分配至 GPU/CPU
)

# 输入你的问题
prompt = "你好,请问你能帮我写一首关于春天的诗吗?"

# 编码并生成回复
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=256)

# 解码并打印结果
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print("DeepSeek 回答:")
print(response)

4.2 运行脚本!

在命令行执行:

python deepseek_local.py

等待模型加载(第一次较慢),你就能看到 DeepSeek 的回复啦!


⚙️ 五、高级配置(可选但推荐)

5.1 使用 GPU 加速

如果你有 NVIDIA 显卡,请安装 CUDA 驱动,并在代码中加入:

model = model.to('cuda')  # 将模型移至 GPU

5.2 量化压缩(节省显存)

如果显存不足(如 < 8GB),可使用 4-bit 量化:

from transformers import BitsAndBytesConfig

bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
)

model = AutoModelForCausalLM.from_pretrained(
    model_path,
    quantization_config=bnb_config,  # 启用4-bit量化
    ...
)

5.3 使用 GGUF 格式(CPU 友好)

如果只有 CPU,建议下载 GGUF 格式的模型(如通过 llama.cpp 运行):

huggingface-cli download deepseek-ai/deepseek-llm-7b-chat-GGUF --local-dir ./deepseek-7b-gguf

然后使用 llama-cpp-python 加载:

from llama_cpp import Llama

model = Llama(
    model_path="./deepseek-7b-gguf/deepseek-llm-7b-chat.Q4_K_M.gguf",
    n_ctx=2048,
    n_gpu_layers=0,  # 纯CPU运行
)

六、常见问题解答(Q&A)

Q1:模型太大,电脑跑不动怎么办?

✅ 方案:

  • 使用更小模型(如 DeepSeek-Coder 1.3B)
  • 开启 4-bit 量化(见 5.2)
  • 使用 CPU + GGUF 格式(见 5.3)

Q2:提示 “OutOfMemoryError” 怎么解决?

✅ 方案:

  • 减小 max_new_tokens(如改为 128)
  • 开启量化
  • 升级显卡或租用云 GPU

Q3:如何实现多轮对话?

✅ 方案:
prompt 中拼接历史对话:

history = [
    {"role": "user", "content": "你好"},
    {"role": "assistant", "content": "你好!我是DeepSeek。"}
]
new_question = "你会写代码吗?"

# 将历史转为文本
full_prompt = "\n".join([f"{msg['role']}: {msg['content']}" for msg in history])
full_prompt += f"\nuser: {new_question}"

七、结语

恭喜你!至此已成功在本地部署 DeepSeek 模型。
你可以用它来:

  • 📝 自动写作
  • 💻 编程辅助
  • 🌐 语言翻译
  • 📚 学习问答
  • 🔍 知识检索

完全免费!完全离线!完全自由!


🔧 附:进阶玩法

  • 使用 text-generation-webui 搭建 Web 对话界面
  • 结合 LangChain 构建 AI Agent
  • 微调(Fine-tune)专属模型

如果这篇教程对你有帮助,欢迎点赞🌟收藏⭐转发➰!
遇到问题?在评论区留言,我会一一回复!

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,免费领取【保证100%免费】

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

二、640套AI大模型报告合集


这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

AI大模型经典PDF籍


随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

AI大模型商业化落地方案


作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐