【干货】RAG文档切分质量评测新基准!腾讯HiCBench+HiChunk框架全解析,收藏必看!
腾讯优图团队针对RAG系统中文档切分质量评估的空白,提出了HiCBench评测基准和HiChunk解决方案。HiCBench是首个专注切分质量的评测基准,包含多级人工标注切分点和证据稠密QA数据集。HiChunk框架通过微调LLM构建多级语义树,结合Auto-Merge检索算法动态选择最优召回层级。实验表明,该方案在切分准确率、RAG性能和效率上全面超越基线方法,有效解决了证据稀疏场景下的文档切分
本文针对RAG系统中文档切分质量被忽视的问题,腾讯优图提出HiCBench评测基准和HiChunk解决方案。HiCBench是首个专门评测切分质量的基准,包含人工标注的多级切分点和证据稠密QA数据集。HiChunk框架通过微调LLM构建多级语义树,配合Auto-Merge检索算法动态选择最佳召回层。实验证明,HiChunk在切分准确率、端到端RAG性能和效率上均显著优于基线方法,为RAG系统的文档切分提供了有效解决方案。
- 现有 RAG 评测只关心“检索-生成”两端,对中间的文档怎么切分几乎不测,导致“证据稀疏”场景下好坏难分。
- 腾讯优图提出HiCBench——第一份专门评测“切分质量”的基准,包含人工标注的多级切分点+证据稠密 QA。

- 同时给出HiChunk框架:用微调 LLM 把文档先建成多级语义树,再配一个Auto-Merge 检索算法,动态决定召回哪一层节点。
RAG 的中间层“无人区”
图1:同一段落用不同切分方法可能得到完全一样的 top-chunk,但证据其实被拦腰截断,现有稀疏证据 QA 无法发现。

表1:主流 RAG 基准的证据极度稀疏,导致“切得好/切得差”在端到端指标上几乎无差别。
HiCBench:第一份“切分专用”评测
图2:HiCBench 构建流程——先人工标多级结构→再生成证据稠密 QA→保留证据占比≥10% 且 Fact-Cov≥80% 的样本。
三种任务类型
| 类型 | 证据分布 | 用途 |
|---|---|---|
| T0 证据稀疏 | 1-2 句 | 模拟传统场景 |
| T1 单块证据稠密 | 同一语义块 512-4 096 词 | 考核“块内完整” |
| T2 多块证据稠密 | 跨 2+ 语义块 256-2 048 词/块 | 考核“跨块召回” |
关键数字
- 130 篇长文(平均 8.5 k 词)
- 1 200 人工标注多级切分点
- (659 T1 + 541 T2) QA 对,平均证据句 20+
HiChunk:把文档建成“可伸缩”的树
两级子任务
- 切分点检测:在哪句断开?
- 层级分配:这段属于 L1/L2/…/Lk?
用指令微调的 4 B 小模型(Qwen3-4B)直接生成“<sent_i> 是 L2 标题”式文本,统一解决。
超长文档怎么办?
图2(a) 迭代推理:每次只看 8 k token,滑动窗口产生局部切分点,再 Merge 到全局树,解决“层次漂移”。
Auto-Merge:检索时自动“拼积木”
图2(b) Auto-Merge:按 token 预算 T 动态决定“子节点→父节点”是否上卷,保证语义完整又不爆长度。
合并条件(同时满足):
- 已召回兄弟节点 ≥2
- 兄弟累计长度 ≥ θ*(随已用 token 自适应增长)
- 剩余预算足够装入父节点

怎么从这棵树里召回最合适的一段
实验结果
切分准确率

- 表3:HiChunk 在域内/域外均显著优于语义相似度或 LLM 单级切分。*
端到端 RAG(Qwen3-32B)
表4:证据越稠密,HC200+AM 优势越大;在稀疏数据集(GutenQA、OHRBench)上与基线持平,证明“不伤害”原有能力。
token 预算影响

图3:2 k→4 k token 预算下,HC200+AM 的 Rouge、Fact-Cov 全程高于其他切分策略。
最大层级消融

图4:只保留 L1 时证据召回掉 8%+;L3 后收益饱和,建议默认 3 级。
耗时

表5:HC 在保证最高质量的同时,速度是 LC 的 2×+ 快,可在线部署。
https://arxiv.org/pdf/2509.11552
HiChunk: Evaluating and Enhancing Retrieval-Augmented Generation with Hierarchical Chunking
Code: https://github.com/TencentCloudADP/HiChunk.git
Data: https://huggingface.co/datasets/Youtu-RAG/HiCBench
推荐阅读
AI时代,未来的就业机会在哪里?
答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具,到自然语言处理、计算机视觉、多模态等核心领域,技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。

掌握大模型技能,就是把握高薪未来。
那么,普通人如何抓住大模型风口?
AI技术的普及对个人能力提出了新的要求,在AI时代,持续学习和适应新技术变得尤为重要。无论是企业还是个人,都需要不断更新知识体系,提升与AI协作的能力,以适应不断变化的工作环境。
因此,这里给大家整理了一份《2025最新大模型全套学习资源》,包括2025最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题等,带你从零基础入门到精通,快速掌握大模型技术!
由于篇幅有限,有需要的小伙伴可以扫码获取!

1. 成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。
2. 大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)

3. 大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。

4. 大模型项目实战
学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

5. 大模型行业报告
行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

6. 大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

为什么大家都在学AI大模型?
随着AI技术的发展,企业对人才的需求从“单一技术”转向 “AI+行业”双背景。企业对人才的需求从“单一技术”转向 “AI+行业”双背景。金融+AI、制造+AI、医疗+AI等跨界岗位薪资涨幅达30%-50%。
同时很多人面临优化裁员,近期科技巨头英特尔裁员2万人,传统岗位不断缩减,因此转行AI势在必行!

这些资料有用吗?
这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


大模型全套学习资料已整理打包,有需要的小伙伴可以
微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费】

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)