如何在LobeChat中免费使用DeepSeek
通过LobeChat快速集成DeepSeek,利用阿里云百炼或自建服务免费调用R1、V3等模型,支持查看思考过程与本地化部署,打造专属AI助手。
如何在 LobeChat 中免费使用 DeepSeek
你有没有想过,不花一分钱、不用买显卡、甚至不需要写代码,就能拥有一个基于 DeepSeek 这类顶级国产大模型的专属 AI 助手?更进一步,它还能支持文件上传、语音对话、联网搜索,甚至帮你写代码、读财报、查天气?
这不是未来,而是现在就可以实现的事。
借助 LobeChat + DeepSeek 的组合,普通用户也能快速搭建出功能媲美商业产品的智能聊天系统。整个过程无需任何硬件投入,只需几分钟点击操作,即可完成部署。最关键的是——完全免费起步,可持续使用。
为什么这个组合值得尝试?
先别急着动手配置,我们来聊聊背后的逻辑:为什么是 LobeChat?为什么选 DeepSeek?
LobeChat 并不是一个简单的“换皮 ChatGPT”。它是基于 Next.js 打造的现代化开源聊天框架,定位更像是一个“AI 助手操作系统”——你可以把它看作 Android,而不同的大模型就是可以安装的应用程序。
它的优势在于:
- 支持 OpenAI、Claude、Gemini、Ollama 等多种后端;
- 提供角色预设、插件扩展(如网页搜索、知识库)、多模态交互(TTS/STT);
- 支持 Docker 和计算巢一键部署,对新手极其友好;
- 界面美观流畅,适合个人使用或团队协作。
而 DeepSeek,则是中国团队推出的一系列高性能开源大语言模型。尤其是最新的 DeepSeek-V3,在推理能力、长文本处理和中文理解上表现亮眼,部分场景已接近 GPT-4 水平。
更重要的是,它具备几个让开发者心动的特性:
- ✅ 使用 MoE 架构,在保证质量的同时降低推理成本;
- ✅ 支持高达 128K 上下文长度,能处理整本小说或大型项目代码;
- ✅ 完全兼容 OpenAI API 协议,接入第三方工具毫无障碍;
- ✅ 新用户普遍可获得百万级甚至数亿 Token 的免费额度。
这两个项目的结合,等于把“强大脑力”装进了“优雅外壳”,真正实现了高端 AI 的平民化。
免费使用的三种路径,哪种最适合你?
虽然 DeepSeek 官方提供了 API 接口,但高峰期经常出现排队、限流等问题。为了获得更稳定、持久的体验,我们需要一些“聪明”的接入方式。
以下是经过实测有效的三种方案,按推荐优先级排序:
| 方式 | 是否免费 | 推荐指数 | 特点 |
|---|---|---|---|
| ① 阿里云百炼平台调用 DeepSeek | ✅ 免费(含100万Token) | ⭐⭐⭐⭐☆ | 接口稳定、响应快、免部署 |
| ② 计算巢一键部署 DeepSeek + Ollama | ✅ 完全免费 | ⭐⭐⭐⭐ | 自主可控、支持更换模型 |
| ③ DeepSeek 官方 API 密钥 | ✅ 新用户送500M Token | ⭐⭐⭐ | 可能限流,适合轻量使用 |
如果你只是想快速试用,首选第一种;如果希望长期掌控、自由切换模型,第二种更合适;第三种则适合作为备用选项。
接下来,我们重点讲前两种最实用的方法。
方法一:通过阿里云百炼平台接入(零门槛推荐)
这是目前最简单、最稳定的免费接入方式。阿里云百炼平台已经内置了 DeepSeek 模型,并提供与 OpenAI 兼容的 API 接口,LobeChat 可以直接识别并调用。
整个流程分为四个步骤:
第一步:注册并获取 API Key
- 打开 阿里云百炼控制台;
- 使用阿里云账号登录(新用户可免费注册);
- 将鼠标悬停在右上角头像处,点击「API-Key」管理;
- 点击「创建我的API-Key」,生成密钥并立即复制保存(仅显示一次!)。
📌 百炼为新用户提供 100万免费 Token 额度,日常对话足够用几个月,完全满足初期需求。
第二步:确认模型名称与接口地址
- 在左侧菜单进入「模型广场」;
- 搜索 “deepseek”,找到
deepseek-r1或deepseek-chat; - 复制模型编码(例如:
deepseek-r1),后续配置要用到; - API 地址固定为:
https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation
注意:不要误选尚未公开的 deepseek-v3,目前可用的是 deepseek-r1。
第三步:部署 LobeChat(两种方式任选)
推荐方式 A:使用计算巢一键部署(适合新手)
不想折腾环境?直接上云端!
- 访问 阿里云计算巢 - LobeChat 服务页;
- 搜索 “LobeChat”,选择官方镜像;
- 填写实例名称、设置密码、分配公网 IP,点击「立即部署」;
- 等待 3~5 分钟,系统自动完成部署并提供访问链接。
✅ 优点非常明显:无需本地电脑、自带 HTTPS 加密、有独立域名,开箱即用。
进阶方式 B:本地或服务器运行(适合开发者)
如果你习惯自己掌控环境,也可以在本地运行:
# 克隆项目
git clone https://github.com/lobehub/lobe-chat.git
# 进入目录
cd lobe-chat
# 安装依赖
npm install
# 启动开发服务器
npm run dev
然后浏览器打开 http://localhost:3210 即可访问。
💡 建议生产环境使用
docker-compose部署,更加稳定安全。
第四步:在 LobeChat 中添加 DeepSeek 模型
- 登录 LobeChat,进入「设置」→「模型提供商」;
- 选择「OpenAI 兼容接口」;
- 填写以下信息:
| 字段 | 内容 |
|---|---|
| 自定义名称 | 百炼 DeepSeek |
| Base URL | https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation |
| API Key | 刚才复制的百炼 API Key |
| 模型列表 | 手动输入 deepseek-r1, deepseek-chat |
保存后,你就可以在会话中切换使用 DeepSeek 模型了。
💡 小技巧:可以在「角色中心」创建一个名为“DeepSeek-R1”的角色,设定描述为“我是来自深度求索的最强推理模型”,提升交互沉浸感。
方法二:通过计算巢部署本地 DeepSeek 实例(自主可控)
如果你不满足于调用远程接口,而是想彻底掌控模型运行环境,甚至未来换成 Qwen、Llama3 或其他模型,那这条路更适合你。
核心思路是:在云端服务器部署一个运行 DeepSeek 的 Ollama 实例,再由 LobeChat 远程调用它。
这种方式的优势很明显:
- 完全免费(按量付费,低频使用每月不到 ¥10);
- 可随时更换模型;
- 不依赖第三方平台配额;
- 数据更私密,适合敏感场景。
步骤 1:部署 DeepSeek-Ollama 实例
- 打开 阿里云计算巢 - DeepSeek+Ollama 镜像页;
- 点击「立即部署」;
- 推荐配置:至少 2vCPU / 8GB RAM(确保模型加载顺利);
- 设置安全组规则:开放 11434 端口(Ollama 默认端口);
- 等待实例启动成功,记录其公网 IP。
📘 该镜像已预装 Ollama,并默认拉取 deepseek-coder:6.7b 模型,适用于编程辅助和通用对话。
步骤 2:验证服务是否正常
在浏览器中访问:
http://<你的公网IP>:11434/api/tags
你应该看到类似如下响应:
{
"models": [
{
"name": "deepseek-coder:6.7b",
"size": 4768371584,
"modified_at": "2024-04-10T12:00:00Z"
}
]
}
说明服务已就绪。
🔒 安全提醒:请勿长期将 11434 端口暴露给所有人。建议后期通过反向代理(如 Nginx)加 JWT 认证保护接口,或将安全组限制为仅允许 LobeChat 实例 IP 访问。
步骤 3:配置 LobeChat 接入远程 Ollama
- 打开 LobeChat → 设置 → 模型提供商;
- 添加新的「Ollama」实例;
- 填写远程地址:
http://<你的公网IP>:11434 - 点击「同步模型列表」,自动发现
deepseek-coder:6.7b; - 保存后即可在聊天中选择该模型。
从此,你就拥有了一个完全属于自己的 AI 推理节点。
进阶玩法:不只是聊天,还能做这些事
LobeChat 的真正价值,不仅在于连接模型,而在于它是一个 AI 应用组装平台。结合 DeepSeek 的强大能力,你能实现远超普通聊天机器人的功能。
🎯 玩法 1:打造专属编程助手
试试创建一个叫 “DeepCoder” 的角色:
- 描述:“我是一名精通 Python、JavaScript 和 SQL 的资深工程师”
- 启用插件:代码解释器、GitHub 文件读取
- 测试问题:“帮我写一个 Flask 接口,接收 JSON 并存入 SQLite”
你会发现,DeepSeek 能精准生成可运行代码,还能根据错误反馈进行调试优化。对于开发者来说,这简直是效率神器。
🔍 玩法 2:开启联网搜索增强
默认情况下,大模型的知识是静态的。但通过启用 Web Search 插件,可以让 DeepSeek “感知实时世界”。
操作步骤:
- 在设置中启用「Web Search」插件(支持 Tavily、Google Custom Search);
- 配置对应 API Key;
- 输入:“今天北京天气怎么样?”
→ AI 将自动发起网络查询并返回最新结果。
这对需要获取新闻、行情、政策等动态信息的用户非常有用。
📎 玩法 3:上传文档提问
支持上传 .pdf, .docx, .xlsx 等文件,让 AI 解析内容并回答问题。
示例:上传一份年报 PDF,提问:“该公司去年净利润是多少?同比增长率多少?”
得益于 LobeChat 内建的文档解析流水线(PDF → 文本提取 → 分块嵌入 → 提示工程),这类任务轻松搞定。
想象一下,以后读合同、审报表、查论文,都不用你自己逐行看了。
常见问题与避坑指南
❓ 提示“模型未找到”或“认证失败”怎么办?
最常见的原因有三个:
- API Key 错误或复制不完整;
- Base URL 缺少
/generation路径; - 模型名称填写错误(比如写了
deepseek-v3而非deepseek-r1);
排查建议:
curl -X POST https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-r1",
"input": { "messages": [{"role": "user", "content": "你好"}] }
}'
用这条命令测试接口连通性,看是否返回合法响应。
❓ 能不能同时接入多个 DeepSeek 模型?
当然可以!LobeChat 支持多实例配置。比如:
- 百炼平台 →
deepseek-r1(强推理) - 本地 Ollama →
deepseek-coder(编程专用) - 官方 API →
deepseek-chat(通用对话)
你可以在不同会话中自由切换,按需使用。
❓ 有没有可能永久免费?
目前所有“免费”都依赖平台赠额或公共资源。若想长期稳定使用,建议:
- 关注 DeepSeek 官方活动,定期领取新额度;
- 使用计算巢按量付费模式,低频使用每月费用极低(约 ¥5~10);
- 条件允许的话,自建家庭 NAS + GPU 主机运行 Ollama,彻底摆脱云端依赖。
最后一点思考:AI 正在变得触手可及
几年前,训练一个大模型需要千万级投入和 A100 集群。今天,普通人只要点几下鼠标,就能拥有一个基于顶尖模型的智能助手。
LobeChat + DeepSeek 的组合,正是这一趋势的缩影。它告诉我们:技术民主化的时代真的来了。
你不再需要成为算法专家,也不必拥有昂贵硬件,就能驾驭最先进的 AI 工具。无论是学生写作业、程序员写代码、产品经理做调研,还是创业者构建原型,这套方案都能立刻带来生产力跃迁。
所以,别再观望了。
打开浏览器,花十分钟走完部署流程,你就能拥有一个懂你、帮你、陪你成长的 AI 伙伴。
技术的价值,从来不是掌握在少数人手中,而是服务于每一个愿意尝试的人。
📌 资源汇总
| 名称 | 链接 |
|---|---|
| LobeChat GitHub 仓库 | https://github.com/lobehub/lobe-chat |
| 阿里云百炼平台 | https://bailian.console.aliyun.com |
| 计算巢 - LobeChat 部署 | https://computenest.console.aliyun.com/service/market/cn-hangzhou?keyword=LobeChat |
| 计算巢 - DeepSeek+Ollama 镜像 | https://computenest.console.aliyun.com/service/detail/cn-hangzhou/service-41ad58439b4b4bf8ae73/15 |
💬 如果你在部署过程中遇到问题,欢迎加入 LobeChat 官方 Discord 社区交流探讨。让我们一起推动开源 AI 的普及与发展!
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)