首次发布的中间思维能力AI推理模型速览:Dhanishtha-2.0
Dhanishtha-2.0是由HelpingAI团队开发的全球首款具备中间思维能力的AI模型。该模型基于Qwen3-14B架构,支持39种语言,具有自我修正和多阶段推理能力,可展示详细思考过程。核心技术包括中间思维模块、结构化情感推理和多语言一致性处理。适用于复杂问题解决、教育辅助和研究支持等场景,但存在回答冗长、生成时间较长等限制。模型通过16天训练,在MMLU、HumanEval等基准测试中
Dhanishtha-2.0:世界首款中间思维AI模型
一、引言
Dhanishtha-2.0是由HelpingAI团队开发的一款具有中间思维能力的先进AI模型。与传统AI模型仅提供即时回答不同,Dhanishtha-2.0能够通过多阶段思考过程,逐步解决问题,并在必要时调整其推理方式。该模型支持39种以上语言,具备多语言环境下的推理一致性,并且能够展示其思考过程。
二、模型概述
Dhanishtha-2.0基于Qwen3-14B基础模型构建,具备以下特点:
-
中间思维能力:模型在生成回答时能够多次暂停、反思并重新启动推理过程,单次回答中可进行多达50次思考。
-
多语言支持:支持包括英语、印地语、中文、西班牙语、法语、德语、日语、韩语、阿拉伯语等在内的39种以上语言。
-
动态推理:能够在分析、沟通和反思阶段之间无缝切换。
-
结构化情感推理(SER):通过
<ser>…模块实现情感化回答。 -
复杂问题解决能力:擅长解决需要多步推理和回溯的问题。
三、模型细节
Dhanishtha-2.0的核心技术包括:
-
中间思维模块:通过
<think>…模块实时展示推理过程。 -
自我修正能力:能够在回答过程中识别并纠正逻辑不一致之处。
-
多语言推理一致性:在不同语言之间保持推理逻辑的一致性。
-
结构化情感推理:通过情感模块实现更具同理心的回答。
四、模型用途
Dhanishtha-2.0适用于以下场景:
-
复杂问题解决:如多步数学问题、逻辑谜题和谜语。
-
教育辅助:提供详细解释并展示推理过程。
-
研究支持:分析需要多视角和自我修正的问题。
-
创意写作:通过迭代故事开发和推理情节选择。
-
哲学讨论:探索概念时展示思考过程。
此外,该模型还可针对特定领域进行微调,如法律、医学或科学推理,以及优化多语言推理一致性和解决特定问题领域(如数学、编程、战略规划)。
五、模型限制与风险
Dhanishtha-2.0的已知限制包括:
-
回答冗长:中间思维可能导致回答较长。
-
生成时间增加:多阶段思考可能增加生成时间。
-
原型状态:实验性功能可能需要进一步完善。
-
上下文使用:思考模块会消耗额外的上下文标记。
-
继承偏差:可能反映基础模型和训练数据中的偏差。
潜在风险包括:
-
推理循环:复杂场景中可能出现循环推理。
-
多语言不一致性:不同语言之间的推理模式可能存在差异。
-
情感推理差距:SER模块可能与内容不完全对齐。
六、模型使用方法
对于普通用户,可以通过以下方式与Dhanishtha-2.0交互:
-
HelpingAI平台:https://helpingai.co/chat
-
Gradio演示:Dhanishtha-2.0-preview
-
API集成:通过仪表盘集成
对于开发者,可以使用以下代码加载和使用模型:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "HelpingAI/Dhanishtha-2.0-preview"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto")
七、训练细节
Dhanishtha-2.0的训练数据包括:
-
多步推理场景
-
自我修正示例和推理链
-
情感推理和同理心训练数据
-
结构化思维模式示例
训练过程分为四个阶段:
-
持续预训练:在推理相关语料上进行扩展训练。
-
高级推理微调:专注于中间思维模式的训练。
-
多语言对齐:跨语言推理一致性训练。
-
SER集成:结构化情感推理能力训练。
训练基础设施包括:
-
训练时长:16.3天
-
硬件:8块NVIDIA H100 GPU
-
模型规模:14.8B参数
八、模型评估
Dhanishtha-2.0在以下基准测试中进行了评估:
-
MMLU:78.1%(单次提示)
-
HumanEval:75.0%(单次提示)
-
ARC:76.0%(单次提示)
-
HellaSwag:81.0%(单次提示)
-
TruthfulQA MC1:75.0%(单次提示)
-
Math 500:95.68%(少量提示)
-
AIME 2024:82.81%(少量提示)
九、模型影响
Dhanishtha-2.0的碳排放可通过机器学习影响计算器估算,训练硬件为H100 GPU,训练时长为16.2天,使用多种云服务提供商和计算区域。
十、核心技术汇总

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐

所有评论(0)