如何在 LobeChat 中免费使用 DeepSeek

你有没有想过,不花一分钱、不用买显卡、甚至不需要写代码,就能拥有一个基于 DeepSeek 这类顶级国产大模型的专属 AI 助手?更进一步,它还能支持文件上传、语音对话、联网搜索,甚至帮你写代码、读财报、查天气?

这不是未来,而是现在就可以实现的事。

借助 LobeChat + DeepSeek 的组合,普通用户也能快速搭建出功能媲美商业产品的智能聊天系统。整个过程无需任何硬件投入,只需几分钟点击操作,即可完成部署。最关键的是——完全免费起步,可持续使用


为什么这个组合值得尝试?

先别急着动手配置,我们来聊聊背后的逻辑:为什么是 LobeChat?为什么选 DeepSeek?

LobeChat 并不是一个简单的“换皮 ChatGPT”。它是基于 Next.js 打造的现代化开源聊天框架,定位更像是一个“AI 助手操作系统”——你可以把它看作 Android,而不同的大模型就是可以安装的应用程序。

它的优势在于:

  • 支持 OpenAI、Claude、Gemini、Ollama 等多种后端;
  • 提供角色预设、插件扩展(如网页搜索、知识库)、多模态交互(TTS/STT);
  • 支持 Docker 和计算巢一键部署,对新手极其友好;
  • 界面美观流畅,适合个人使用或团队协作。

而 DeepSeek,则是中国团队推出的一系列高性能开源大语言模型。尤其是最新的 DeepSeek-V3,在推理能力、长文本处理和中文理解上表现亮眼,部分场景已接近 GPT-4 水平。

更重要的是,它具备几个让开发者心动的特性:

  • ✅ 使用 MoE 架构,在保证质量的同时降低推理成本;
  • ✅ 支持高达 128K 上下文长度,能处理整本小说或大型项目代码;
  • ✅ 完全兼容 OpenAI API 协议,接入第三方工具毫无障碍;
  • ✅ 新用户普遍可获得百万级甚至数亿 Token 的免费额度。

这两个项目的结合,等于把“强大脑力”装进了“优雅外壳”,真正实现了高端 AI 的平民化。


免费使用的三种路径,哪种最适合你?

虽然 DeepSeek 官方提供了 API 接口,但高峰期经常出现排队、限流等问题。为了获得更稳定、持久的体验,我们需要一些“聪明”的接入方式。

以下是经过实测有效的三种方案,按推荐优先级排序:

方式 是否免费 推荐指数 特点
① 阿里云百炼平台调用 DeepSeek ✅ 免费(含100万Token) ⭐⭐⭐⭐☆ 接口稳定、响应快、免部署
② 计算巢一键部署 DeepSeek + Ollama ✅ 完全免费 ⭐⭐⭐⭐ 自主可控、支持更换模型
③ DeepSeek 官方 API 密钥 ✅ 新用户送500M Token ⭐⭐⭐ 可能限流,适合轻量使用

如果你只是想快速试用,首选第一种;如果希望长期掌控、自由切换模型,第二种更合适;第三种则适合作为备用选项。

接下来,我们重点讲前两种最实用的方法。


方法一:通过阿里云百炼平台接入(零门槛推荐)

这是目前最简单、最稳定的免费接入方式。阿里云百炼平台已经内置了 DeepSeek 模型,并提供与 OpenAI 兼容的 API 接口,LobeChat 可以直接识别并调用。

整个流程分为四个步骤:

第一步:注册并获取 API Key

  1. 打开 阿里云百炼控制台
  2. 使用阿里云账号登录(新用户可免费注册);
  3. 将鼠标悬停在右上角头像处,点击「API-Key」管理;
  4. 点击「创建我的API-Key」,生成密钥并立即复制保存(仅显示一次!)。

📌 百炼为新用户提供 100万免费 Token 额度,日常对话足够用几个月,完全满足初期需求。

第二步:确认模型名称与接口地址

  1. 在左侧菜单进入「模型广场」;
  2. 搜索 “deepseek”,找到 deepseek-r1deepseek-chat
  3. 复制模型编码(例如:deepseek-r1),后续配置要用到;
  4. API 地址固定为:
    https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation

注意:不要误选尚未公开的 deepseek-v3,目前可用的是 deepseek-r1

第三步:部署 LobeChat(两种方式任选)

推荐方式 A:使用计算巢一键部署(适合新手)

不想折腾环境?直接上云端!

  1. 访问 阿里云计算巢 - LobeChat 服务页
  2. 搜索 “LobeChat”,选择官方镜像;
  3. 填写实例名称、设置密码、分配公网 IP,点击「立即部署」;
  4. 等待 3~5 分钟,系统自动完成部署并提供访问链接。

✅ 优点非常明显:无需本地电脑、自带 HTTPS 加密、有独立域名,开箱即用。

进阶方式 B:本地或服务器运行(适合开发者)

如果你习惯自己掌控环境,也可以在本地运行:

# 克隆项目
git clone https://github.com/lobehub/lobe-chat.git

# 进入目录
cd lobe-chat

# 安装依赖
npm install

# 启动开发服务器
npm run dev

然后浏览器打开 http://localhost:3210 即可访问。

💡 建议生产环境使用 docker-compose 部署,更加稳定安全。

第四步:在 LobeChat 中添加 DeepSeek 模型

  1. 登录 LobeChat,进入「设置」→「模型提供商」;
  2. 选择「OpenAI 兼容接口」;
  3. 填写以下信息:
字段 内容
自定义名称 百炼 DeepSeek
Base URL https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation
API Key 刚才复制的百炼 API Key
模型列表 手动输入 deepseek-r1, deepseek-chat

保存后,你就可以在会话中切换使用 DeepSeek 模型了。

💡 小技巧:可以在「角色中心」创建一个名为“DeepSeek-R1”的角色,设定描述为“我是来自深度求索的最强推理模型”,提升交互沉浸感。


方法二:通过计算巢部署本地 DeepSeek 实例(自主可控)

如果你不满足于调用远程接口,而是想彻底掌控模型运行环境,甚至未来换成 Qwen、Llama3 或其他模型,那这条路更适合你。

核心思路是:在云端服务器部署一个运行 DeepSeek 的 Ollama 实例,再由 LobeChat 远程调用它

这种方式的优势很明显:

  • 完全免费(按量付费,低频使用每月不到 ¥10);
  • 可随时更换模型;
  • 不依赖第三方平台配额;
  • 数据更私密,适合敏感场景。

步骤 1:部署 DeepSeek-Ollama 实例

  1. 打开 阿里云计算巢 - DeepSeek+Ollama 镜像页
  2. 点击「立即部署」;
  3. 推荐配置:至少 2vCPU / 8GB RAM(确保模型加载顺利);
  4. 设置安全组规则:开放 11434 端口(Ollama 默认端口);
  5. 等待实例启动成功,记录其公网 IP。

📘 该镜像已预装 Ollama,并默认拉取 deepseek-coder:6.7b 模型,适用于编程辅助和通用对话。

步骤 2:验证服务是否正常

在浏览器中访问:

http://<你的公网IP>:11434/api/tags

你应该看到类似如下响应:

{
  "models": [
    {
      "name": "deepseek-coder:6.7b",
      "size": 4768371584,
      "modified_at": "2024-04-10T12:00:00Z"
    }
  ]
}

说明服务已就绪。

🔒 安全提醒:请勿长期将 11434 端口暴露给所有人。建议后期通过反向代理(如 Nginx)加 JWT 认证保护接口,或将安全组限制为仅允许 LobeChat 实例 IP 访问。

步骤 3:配置 LobeChat 接入远程 Ollama

  1. 打开 LobeChat → 设置 → 模型提供商;
  2. 添加新的「Ollama」实例;
  3. 填写远程地址:
    http://<你的公网IP>:11434
  4. 点击「同步模型列表」,自动发现 deepseek-coder:6.7b
  5. 保存后即可在聊天中选择该模型。

从此,你就拥有了一个完全属于自己的 AI 推理节点。


进阶玩法:不只是聊天,还能做这些事

LobeChat 的真正价值,不仅在于连接模型,而在于它是一个 AI 应用组装平台。结合 DeepSeek 的强大能力,你能实现远超普通聊天机器人的功能。

🎯 玩法 1:打造专属编程助手

试试创建一个叫 “DeepCoder” 的角色:

  • 描述:“我是一名精通 Python、JavaScript 和 SQL 的资深工程师”
  • 启用插件:代码解释器、GitHub 文件读取
  • 测试问题:“帮我写一个 Flask 接口,接收 JSON 并存入 SQLite”

你会发现,DeepSeek 能精准生成可运行代码,还能根据错误反馈进行调试优化。对于开发者来说,这简直是效率神器。

🔍 玩法 2:开启联网搜索增强

默认情况下,大模型的知识是静态的。但通过启用 Web Search 插件,可以让 DeepSeek “感知实时世界”。

操作步骤:

  1. 在设置中启用「Web Search」插件(支持 Tavily、Google Custom Search);
  2. 配置对应 API Key;
  3. 输入:“今天北京天气怎么样?”
    → AI 将自动发起网络查询并返回最新结果。

这对需要获取新闻、行情、政策等动态信息的用户非常有用。

📎 玩法 3:上传文档提问

支持上传 .pdf, .docx, .xlsx 等文件,让 AI 解析内容并回答问题。

示例:上传一份年报 PDF,提问:“该公司去年净利润是多少?同比增长率多少?”

得益于 LobeChat 内建的文档解析流水线(PDF → 文本提取 → 分块嵌入 → 提示工程),这类任务轻松搞定。

想象一下,以后读合同、审报表、查论文,都不用你自己逐行看了。


常见问题与避坑指南

❓ 提示“模型未找到”或“认证失败”怎么办?

最常见的原因有三个:

  • API Key 错误或复制不完整;
  • Base URL 缺少 /generation 路径;
  • 模型名称填写错误(比如写了 deepseek-v3 而非 deepseek-r1);

排查建议:

curl -X POST https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-r1",
    "input": { "messages": [{"role": "user", "content": "你好"}] }
  }'

用这条命令测试接口连通性,看是否返回合法响应。

❓ 能不能同时接入多个 DeepSeek 模型?

当然可以!LobeChat 支持多实例配置。比如:

  • 百炼平台 → deepseek-r1(强推理)
  • 本地 Ollama → deepseek-coder(编程专用)
  • 官方 API → deepseek-chat(通用对话)

你可以在不同会话中自由切换,按需使用。

❓ 有没有可能永久免费?

目前所有“免费”都依赖平台赠额或公共资源。若想长期稳定使用,建议:

  • 关注 DeepSeek 官方活动,定期领取新额度;
  • 使用计算巢按量付费模式,低频使用每月费用极低(约 ¥5~10);
  • 条件允许的话,自建家庭 NAS + GPU 主机运行 Ollama,彻底摆脱云端依赖。

最后一点思考:AI 正在变得触手可及

几年前,训练一个大模型需要千万级投入和 A100 集群。今天,普通人只要点几下鼠标,就能拥有一个基于顶尖模型的智能助手。

LobeChat + DeepSeek 的组合,正是这一趋势的缩影。它告诉我们:技术民主化的时代真的来了

你不再需要成为算法专家,也不必拥有昂贵硬件,就能驾驭最先进的 AI 工具。无论是学生写作业、程序员写代码、产品经理做调研,还是创业者构建原型,这套方案都能立刻带来生产力跃迁。

所以,别再观望了。

打开浏览器,花十分钟走完部署流程,你就能拥有一个懂你、帮你、陪你成长的 AI 伙伴。

技术的价值,从来不是掌握在少数人手中,而是服务于每一个愿意尝试的人。


📌 资源汇总

名称 链接
LobeChat GitHub 仓库 https://github.com/lobehub/lobe-chat
阿里云百炼平台 https://bailian.console.aliyun.com
计算巢 - LobeChat 部署 https://computenest.console.aliyun.com/service/market/cn-hangzhou?keyword=LobeChat
计算巢 - DeepSeek+Ollama 镜像 https://computenest.console.aliyun.com/service/detail/cn-hangzhou/service-41ad58439b4b4bf8ae73/15

💬 如果你在部署过程中遇到问题,欢迎加入 LobeChat 官方 Discord 社区交流探讨。让我们一起推动开源 AI 的普及与发展!

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐