什么是AI幻读?

“AI幻读”是对大语言模型(如ChatGPT)生成看似合理但实际上有误或虚构内容现象的一种俗称,也称为:

  • AI幻觉(AI hallucination)

  • 模型幻觉(model hallucination)

  • 语言幻觉(language hallucination)

简单来说:

AI幻读是指AI在没有真实依据的情况下,一本正经地胡说八道。

为什么会出现 AI 幻读?

1、AI幻读的出现,根本原因在于当前的人工智能大语言模型并不具备真正的理解能力,它们的运作机制并不是“查找事实”,而是“预测词语”。这些模型的核心逻辑是:给定一段已有的文本,预测下一个最可能出现的词或者句子。它们通过在海量语料中学习语言模式,建立起一种“统计相关性”的能力,却不具备判断事实真伪的能力。

2、当你向AI提出一个问题时,它不是在搜索数据库,也不是在调用某个知识图谱去检索准确答案,而是在想:“如果人类在这样的上下文里会说话,他们最有可能接下来会说什么?”于是它就生成了看起来流畅、逻辑合理、语法无误、甚至风格统一的回答。但这个回答并不一定是真的,因为模型并不真正“知道”事情的真相,它只是擅长“模仿”。

3、另外,大语言模型没有事实核验机制,它不会自己去校验数据是否真实,也不会联网查找最新信息。比如你问“牛顿在哪本书里提到黑洞”,这其实是个错误问题,但AI可能会认真回答,并编出一本不存在的书名,因为它只是根据训练中的语言概率模型“推测”出一个听起来合理的结果。

怎么减少幻读?

注意:我这里为什么不是说怎么彻底解决幻读,而是尽可能的减少幻读?
因为幻读是无法避免的,我们只能尽最好的方式减少。上面的意思也基本是为什么我们无法避免幻读的情况。

减少幻读的方式:

一、优化提问方式:问得好,幻读少

语言模型“话赶话”,容易被“误导性提问”带偏。如果你问得越严谨、越具体,它就越不容易幻读。

方法 1:加上事实验证要求

原问题(容易幻读):

Spring Boot 中的 @RequestMapping 注解是 JavaScript 语法的一部分吗?我可以用它来控制前端路由跳转吗?

这会让 AI 误以为这个注解是js的语法,从而一本正经地编。

改进提问:

@RequestMapping 是 Spring Boot 后端的注解,不属于 JavaScript 范畴。那在 Spring Boot 中,该注解如何配合前端 Vue 或 React 的路由实现页面跳转?

结果:模型会先纠正事实,再谨慎回答。

方法 2:加入“如果不知道就说不知道”

原问题:

JVM 在哪个版本里加入了 @Transactional 注解支持?

这个问题逻辑上是错误的,因为:

  • @Transactional 是 Spring 框架 提供的,不属于 JVM。
  • JVM 不关心 Spring 的事务注解。

模型可能会“一本正经地乱编”,比如说:
“JVM 在 Java 1.6 就加入了 @Transactional 的支持”——完全是幻觉。
改进提问:

@Transactional 是 Spring 中用于声明式事务的注解,如果这不是 JVM 层面的功能,请直接说明“不是 JVM 的特性”,不要猜测版本号或编造历史。

结果:大大减少幻读倾向。

方法 3:限制回答范围,避免模型猜测

原问题:

请列出中国近三年所有大厂互联网裁员公司的名单。

改进提问:

请根据你所知的数据(不超过 2023 年),列举部分有公开报道裁员的中国大厂互联网公司名单,不要凭空猜测。

结果:模型更倾向回答“我所知范围内是…”而非乱列公司。

二、技术手段辅助:让 AI 查一下再回答

适合开发者

方法 1:使用 RAG(Retrieval-Augmented Generation)

在 AI 生成回答之前,先用关键词去知识库或文档中检索内容,再引导 AI 结合真实资料作答。

例子:

用户问:“公司内部的开发文档怎么写?”
系统先去公司知识库中检索“开发文档”相关文档,再把检索到的内容喂给模型,模型基于这些内容作答。

这样能确保回答内容来自真实文档,而不是模型“编”的。

方法 2:加入“引用来源”机制

要求模型在回答时标注出处,比如 URL、文档 ID 或段落编号。

例子:

问:“钉钉机器人并发发信息的数量是多少?”

改为:

请引用钉钉开放平台文档,说明钉钉机器人每秒能同时发多少条信息。回答时请附上链接。

模型若接入检索能力,会给出链接;否则也会倾向说“不确定”,减少乱编。

三、引导模型行为:训练或微调阶段加控制

这属于模型开发者范畴,但你可以了解它背后的设计逻辑。

方法 1:微调模型加入“拒绝编造”的训练样本

训练中增加数据,例如:

用户提问:爱迪生在哪发明了 苹果手机?
正确答案:苹果手机 是苹果公司于2007年发布的,爱迪生与此无关。

这样模型会学会在不确定时保持克制,而不是试图编一个。

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐