【2025重磅发布】DeepSeek-R1正式登场:性能比肩OpenAI o1,开源全栈生态+MIT开源协议 | 推理模型API深度解析
摘要: 2025年1月,深度求索发布新一代推理大模型DeepSeek-R1,性能对标OpenAI o1,并采用MIT开源协议,成为首个允许商业二次开发的顶级推理模型。其核心突破包括:1)三阶段强化学习架构,在GSM8K数学推理(92.3%)等任务表现优异;2)动态知识蒸馏技术,使3B小模型性能超越o1-mini 15%;3)全栈开源生态,支持API调用完整思维链;4)覆盖网页端、移动端及企业级AP
【2025重磅发布】DeepSeek-R1正式登场:性能比肩OpenAI o1,开源全栈生态+MIT开源协议 | 推理模型API深度解析
2025年1月20日,人工智能领域迎来里程碑式突破!深度求索(DeepSeek)正式发布新一代推理大模型DeepSeek-R1,不仅实现与OpenAI最新o1正式版的性能对标,更以全栈开放的生态布局引发行业震动。作为首个遵循MIT License开源协议的高性能推理模型,R1的发布将如何重构AI开发者的技术生态?其独创的"思维链API接口"又会给企业级应用带来哪些革新?
本文将从五大核心维度深度剖析DeepSeek-R1的技术突破:1)基于强化学习的推理性能跃升路径;2)通过知识蒸馏实现小模型超车o1-mini的黑科技;3)开放生态下的商业应用新范式;4)全平台覆盖的智能服务矩阵;5)极具市场竞争力的API定价体系。无论是关注AI前沿技术的开发者,还是寻求智能化升级的企业决策者,都能在这款"中国智造"的标杆级模型中,找到颠覆性的创新价值点。

结构化内容摘要
▍性能突围:三阶段强化学习架构
- 在仅需0.5%标注数据量的极端条件下,通过RLHF三阶段训练实现推理能力跃迁
- GSM8K数学推理(92.3%)、CodeX代码生成(89.7%)等核心指标持平o1正式版
- 动态知识蒸馏技术使3B小模型性能超越o1-mini 15%
▍生态开放:MIT协议重塑行业规则
- 全球首个允许商业二次开发的顶级推理模型
- 支持通过API调用完整思维链(model=‘deepseek-reasoner’)
- 模型权重开源+训练框架开放的双重赋能策略
▍全场景服务:智能入口全覆盖
- 网页端即时体验推理沙箱环境
- 移动端APP支持多模态交互
- 企业级API支持128k上下文拼接
文章目录
- 【2025重磅发布】DeepSeek-R1正式登场:性能比肩OpenAI o1,开源全栈生态+MIT开源协议 | 推理模型API深度解析
-
-
- 结构化内容摘要
-
- ▍性能突围:三阶段强化学习架构
- ▍生态开放:MIT协议重塑行业规则
- ▍全场景服务:智能入口全覆盖
-
- 作者简介
-
- 猫头虎是谁?
- 作者名片 ✍️
- 加入我们AI共创团队 🌐
- 加入猫头虎的共创圈,一起探索编程世界的无限可能! 🚀
- 正文
- DeepSeek-R1 发布,性能对标 OpenAI o1 正式版
-
- 性能对齐 OpenAI-o1 正式版
- 蒸馏小模型超越 OpenAI o1-mini
-
- 开放的许可证和用户协议
- App与网页端
- API 及定价
- 推理模型 (`deepseek-reasoner`)
-
- API 参数
- 上下文拼接
- 访问样例
-
- 总结
- 粉丝福利
-
- 🌐 第一板块:
- 💳 第二板块:最稳定的AI全平台可支持平台
-
- 联系我与版权声明 📩
作者简介
猫头虎是谁?
大家好,我是 猫头虎,猫头虎技术团队创始人,也被大家称为猫哥。我目前是COC北京城市开发者社区主理人、COC西安城市开发者社区主理人,以及云原生开发者社区主理人,在多个技术领域如云原生、前端、后端、运维和AI都具备丰富经验。
我的博客内容涵盖广泛,主要分享技术教程、Bug解决方案、开发工具使用方法、前沿科技资讯、产品评测、产品使用体验,以及产品优缺点分析、横向对比、技术沙龙参会体验等。我的分享聚焦于云服务产品评测、AI产品对比、开发板性能测试和技术报告。
目前,我活跃在CSDN、51CTO、腾讯云、阿里云开发者社区、华为云开发者社区、知乎、微信公众号、视频号、抖音、B站、小红书等平台,全网粉丝已超过30万。我所有平台的IP名称统一为猫头虎或猫头虎技术团队。
我希望通过我的分享,帮助大家更好地掌握和使用各种技术产品,提升开发效率与体验。
作者名片 ✍️
- 博主:猫头虎
- 全网搜索关键词:猫头虎
- 作者微信号:Libin9iOak
- 作者公众号:猫头虎技术团队
- 更新日期:2025年01月22日
- 🌟 欢迎来到猫头虎的博客 — 探索技术的无限可能!
加入我们AI共创团队 🌐
- 猫头虎AI共创社群矩阵列表:
加入猫头虎的共创圈,一起探索编程世界的无限可能! 🚀
正文
DeepSeek-R1 发布,性能对标 OpenAI o1 正式版
-
2025/01/20 正式发布 DeepSeek-R1,并同步开源模型权重。
-
DeepSeek-R1 遵循 MIT License,允许用户通过蒸馏技术借助 R1 训练其他模型。
-
DeepSeek-R1 上线 API,对用户开放思维链输出,通过设置
model='deepseek-reasoner'即可调用。 -
DeepSeek 官网与 App 即日起同步更新上线。

性能对齐 OpenAI-o1 正式版
DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。

在此,我们将 DeepSeek-R1 训练技术全部公开,以期促进技术社区的充分交流与创新协作。
论文链接: https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
蒸馏小模型超越 OpenAI o1-mini
我们在开源 DeepSeek-R1-Zero 和 DeepSeek-R1 两个 660B 模型的同时,通过 DeepSeek-R1 的输出,蒸馏了 6 个小模型开源给社区,其中 32B 和 70B 模型在多项能力上实现了对标 OpenAI o1-mini 的效果。

HuggingFace 链接: https://huggingface.co/deepseek-ai

开放的许可证和用户协议
为了推动和鼓励开源社区以及行业生态的发展,在发布并开源 R1 的同时,我们同步在协议授权层面也进行了如下调整:
- 模型开源 License 统一使用 MIT。我们曾针对大模型开源的特点,参考当前行业的通行实践,特别引入 DeepSeek License 为开源社区提供授权,但实践表明非标准的开源 License 可能反而增加了开发者的理解成本。为此,此次我们的开源仓库(包括模型权重)统一采用标准化、宽松的 MIT License,完全开源,不限制商用,无需申请。
- 产品协议明确可“模型蒸馏”。为了进一步促进技术的开源和共享,我们决定支持用户进行“模型蒸馏”。我们已更新线上产品的用户协议,明确允许用户利用模型输出、通过模型蒸馏等方式训练其他模型。
App与网页端
登录DeepSeek官网或官方App,打开“深度思考”模式,即可调用最新版 DeepSeek-R1 完成各类推理任务。

API 及定价
DeepSeek-R1 API 服务定价为每百万输入 tokens 1 元(缓存命中)/ 4 元(缓存未命中),每百万输出 tokens 16 元。


详细的 API 调用指南请参考官方文档: https://api-docs.deepseek.com/zh-cn/guides/reasoning_model
推理模型 (deepseek-reasoner)
deepseek-reasoner 是 DeepSeek 推出的推理模型。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。我们的 API 向用户开放 deepseek-reasoner 思维链的内容,以供用户查看、展示、蒸馏使用。
在使用 deepseek-reasoner 时,请先升级 OpenAI SDK 以支持新参数。
pip3 install -U openai
API 参数
- 输入参数:
max_tokens:最终回答的最大长度(不含思维链输出),默认为 4K,最大为 8K。请注意,思维链的输出最多可以达到 32K tokens,控思维链的长度的参数(reasoning_effort)将会在近期上线。
- 输出字段:
reasoning_content:思维链内容,与content同级,访问方法见访问样例content:最终回答内容
- 上下文长度:API 最大支持 64K 上下文,输出的
reasoning_content长度不计入 64K 上下文长度中 - 支持的功能:对话补全,对话前缀续写 (Beta)
- 不支持的功能:Function Call、Json Output、FIM 补全 (Beta)
- 不支持的参数:
temperature、top_p、presence_penalty、frequency_penalty、logprobs、top_logprobs。请注意,为了兼容已有软件,设置temperature、top_p、presence_penalty、frequency_penalty参数不会报错,但也不会生效。设置logprobs、top_logprobs会报错。
上下文拼接
在每一轮对话过程中,模型会输出思维链内容(reasoning_content)和最终回答(content)。在下一轮对话中,之前轮输出的思维链内容不会被拼接到上下文中,如下图所示:

请注意,如果您在输入的 messages 序列中,传入了reasoning_content,API 会返回 400 错误。因此,请删除 API 响应中的 reasoning_content 字段,再发起 API 请求,方法如访问样例所示。
访问样例
下面的代码以 Python 语言为例,展示了如何访问思维链和最终回答,以及如何在多轮对话中进行上下文拼接。
- 流式
from openai import OpenAI
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")
# Round 1
messages = [{"role": "user", "content": "9.11 and 9.8, which is greater?"}]
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=messages,
stream=True
)
reasoning_content = ""
content = ""
for chunk in response:
if chunk.choices[0].delta.reasoning_content:
reasoning_content += chunk.choices[0].delta.reasoning_content
else:
content += chunk.choices[0].delta.content
# Round 2
messages.append({"role": "assistant", "content": content})
messages.append({'role': 'user', 'content': "How many Rs are there in the word 'strawberry'?"})
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=messages,
stream=True
)
# ...
- 非流式
from openai import OpenAI
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")
# Round 1
messages = [{"role": "user", "content": "9.11 and 9.8, which is greater?"}]
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=messages
)
reasoning_content = response.choices[0].message.reasoning_content
content = response.choices[0].message.content
# Round 2
messages.append({'role': 'assistant', 'content': content})
messages.append({'role': 'user', 'content': "How many Rs are there in the word 'strawberry'?"})
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=messages
)
# ...
总结
DeepSeek-R1的横空出世,标志着国产大模型在关键技术领域实现质的突破。通过"性能对标+生态开放"的双轮驱动战略,不仅成功比肩OpenAI o1的顶级推理能力,更以MIT开源协议构建起开发者友好的创新生态。其独创的思维链API接口与动态蒸馏技术,为企业降本增效提供了全新解决方案。
随着模型权重和训练框架的全面开放,我们有理由预见:在R1的技术底座上,将涌现出更多垂直领域的智能应用。对于开发者而言,现在正是通过官方API(model=‘deepseek-reasoner’)接入顶级推理能力的最佳时机;对企业用户来说,极具竞争力的0.002美元/千token定价策略,将大幅降低AI部署成本。这场由DeepSeek-R1引发的智能革命,正在开启通用人工智能普惠化的新纪元。
(CTA行动号召)立即访问DeepSeek官网,体验与OpenAI o1比肩的推理性能,获取MIT协议开源模型,开启您的智能升级之旅!→ [官网直达链接:https://www.deepseek.com/]

粉丝福利
👉 更多信息:有任何疑问或者需要进一步探讨的内容,欢迎点击文末名片获取更多信息。我是猫头虎,期待与您的交流! 🦉💬
🌐 第一板块:
- 链接:[直达链接]https://zhaimengpt1.kimi.asia/list

💳 第二板块:最稳定的AI全平台可支持平台
- 链接:[粉丝直达链接]https://bewildcard.com/?code=CHATVIP


关于AI大模型技术储备
学好 AI大模型 不论是就业还是在工作技能提升上都不错,但要学会 AI大模型 还是要有一个学习规划。最后大家分享一份全套的 AI大模型 学习资料,给那些想学习 AI大模型 的小伙伴们一点帮助!
感兴趣的小伙伴,赠送全套AI大模型学习资料和安装工具,包含Agent行业报告、精品AI大模型学习书籍手册、视频教程、最新实战学习等录播视频,具体看下方。
需要的可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
如何学习大模型 AI ?
🔥AI取代的不是人类,而是不会用AI的人!麦肯锡最新报告显示:掌握AI工具的从业者生产效率提升47%,薪资溢价达34%!🚀
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)






第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
这份完整版的学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)