第四届全国大模型智能生成大会(LMG 2025)将于2025年11月1日至11月3日在成都市高新区召开,预计参会人数将超过一千人。本届大会以“智汇天府,生成艺境”为主题,汇聚产学研各界力量,共同探讨智能生成领域的前沿发展。其中,大会讲习班将于11月3日举行,为与会者提供更加深入的学习与交流机会。本次讲习班邀请到了四位青年专家,分别是清华大学助理教授章明星博士、香港大学计算机科学系助理教授孔令鹏博士、清华大学计算机系助理研究员韩旭博士、中国科学院软件研究所副研究员陆垚杰博士。讲习班将从AI基础设施挑战与机遇、扩散语言模型、大模型高效计算方法、更深度与更稳健的检索与自动研究等前沿议题,分享最新的技术进展和实战经验。

讲习班日程

时间

题目

讲者

09:00 - 10:30

深度思考模型带来的AI基础设施挑战与机遇

章明星

10:30 - 12:00

扩散语言模型

孔令鹏

14:00 - 15:30

能力密度牵引下的大模型高效计算方法

韩旭

15:30 - 17:00

迈向更深度与更稳健的检索与自动研究

陆垚杰

01

深度思考模型带来的AI基础设施挑战与机遇

章明星(清华大学)

摘要:深度思考类模型在显著提升推理能力和多步逻辑处理能力的同时,也使得输出长度大幅增长。这一趋势直接导致模型在训练与推理两个阶段的计算和资源消耗急剧上升,给现有的AI基础设施带来了前所未有的挑战。在算力紧张和成本敏感的背景下,如何提升计算资源的使用效率,已成为业界关注的核心议题。讲座内容将系统梳理当前业界主流的优化策略,并围绕以下三个维度展开深入探讨:如何更高效地利用现有GPU算力、如何挖掘算力优化以外的新突破口、以及如何通过算法与系统的协同设计推动整体性能的跃升。同时,也将探讨下一步可能的优化路径。

讲者介绍:章明星,清华大学助理教授,主要从事内存系统研究,开源项目Mooncake和KTransforemers发起人。相关成果在OSDI、SOSP、ASPLOS、HPCA、EuroSys 等国际顶级会议和期刊上发表论文三十余篇,包括FAST最佳论文,SIGSOFT杰出论文,和国内高校首篇OSDI。曾获得ChinaSys新星和优博奖,IEEE TCSC优博,入选中国科协青年人才托举计划,科技部重点研发项目课题负责人。曾任深信服首席算法技术专家,创新研究院院长,相关孵化产品应用于数万家客户。

02

扩散语言模型

孔令鹏(香港大学)

摘要:本报告探讨自回归大语言模型(LLMs)的替代方案,特别关注离散扩散模型。报告涵盖了非自回归方法在文本生成、推理和规划任务方面的最新进展。讨论的关键发展包括重参数化离散扩散模型(RDMs),以及离散扩散在复杂推理任务如数独和象棋中的应用。报告还研究了序列到序列文本扩散模型,以及用于思维链推理的新型思想扩散(DoTs)框架。这些非自回归方法展示了具有竞争力的性能,同时相比传统自回归模型,在并行处理和灵活生成模式方面提供新的可能。

讲者简介:孔令鹏,香港大学计算机科学系助理教授、博士生导师,香港大学NLP实验室联合主管,卡内基梅隆大学博士,师从ACL Fellow Noah A. Smith。曾任谷歌DeepMind研究科学家。主要研究领域为自然语言处理与机器学习,专注于生成模型及模型架构等基础研究。在ICLR、ICML、ACL等人工智能顶级会议发表论文70余篇,谷歌学术引用8000余次,曾获ACL及EACL杰出论文奖。代表成果包括扩散语言模型Dream和字节级大语言模型EvaByte。主持或参与国家自然科学基金委与研究资助局联合科研资助基金、香港创新科技基金等项目。担任ICLR、NeurIPS、ICML等顶级会议(高级)领域主席及TMLR期刊执行编辑。

03

能力密度牵引下的大模型高效计算方法

韩旭(清华大学)

摘要:随着大模型规模与数据量的持续扩张,模型能力提升与资源消耗之间的瓶颈日益突出,传统单一堆叠参数和数据的模式已难以为继,亟需探索更为高效的大模型技术。本报告围绕提升大模型的能力密度这一关键目标展开,以期在单位计算成本下实现最大的模型智能。围绕上述目标,报告将探讨三个核心技术方向:一是训练数据的精细化过滤,通过构建层级化质量过滤与合成,摒弃低效冗余数据,通过数据知识密度的提升来促进模型能力密度的提升。二是模型架构的稀疏化重构,通过对注意力层与前馈层的组件进行稀疏化重构,在模型能力不显著下降的条件下,大幅减少模型计算存储开销。三是进行训推框架的算法优化,通过对分布式训练、推理算法的深度优化,结合底层算子级优化操作,大幅提升模型的训练和推理效率。

讲者介绍:韩旭,清华大学计算机系助理研究员,研究方向为自然语言处理、知识工程、大模型、智能计算系统,在国际学术会议及期刊发表论文数十篇,Google Scholar他引1.4万余次,曾获教育部自然科学奖一等奖、世界互联网大会领先科技奖等奖项,曾入选博士后创新人才支持计划、中国计算机学会(CCF)优博激励计划、清华大学优秀博士后、《麻省理工科技评论》中国区“35岁以下科技创新35人”榜单等荣誉。创建大模型开源社区OpenBMB,开源MiniCPM系列端侧大模型,系列模型累计已有1300万余下载量、2万余GitHub星标,多次登顶GitHub与HuggingFace的Trending榜单,是国内外最具代表性的端侧大模型之一。

04

迈向更深度与更稳健的检索与自动研究

陆垚杰(中国科学院软件研究所)

摘要:随着大语言模型与检索增强生成技术的不断发展,信息检索和自动研究正在迈向更加深度化、智能化与鲁棒化的新阶段。未来的搜索系统不仅需要精准地定位海量信息,更要能够理解复杂语境、整合多源知识、并支持跨领域的推理与探索。本报告将系统回顾相关技术,探讨如何构建面向开放问题的鲁棒检索与自动研究系统。本报告还将分析当前方法在可解释性、偏差控制与抗干扰能力上的挑战,并提出迈向更可信赖、更可扩展的未来检索和自动研究的思考与展望。

讲者介绍:陆垚杰,中国科学院软件研究所副研究员,博士毕业于中国科学院大学。主要研究方向为大模型在预训练、后训练与推理阶段的知识机制与知识增强。近年来在 Artificial Intelligence (AIJ)、ACL、AAAI、ICLR、ICML、NeurIPS 等国际顶级会议和期刊发表论文五十余篇。学术服务方面,多次担任 ACL、EMNLP、ICLR、AAAI 等国际会议的审稿人和领域主席。主持和参与多项国家级、部委级科研项目、企业合作项目。曾获中国科学院院长特别奖,并入选中国中文信息学会优秀博士论文。

会议组织

讲习班主席

肖桐(东北大学)、 刘康(中科院自动化所)、 林鸿宇(中科院软件所)

点击“阅读原文”直达会议官网

↓↓↓

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐