降AI工具那么多,有没有专门给学术论文降AI率的?
本文首先介绍了AIGC检测原理,实际上的AI检测就是一个二分类的风格分类模型。指出为什么使用提示词工程让大模型去改写AI生成内容不可靠,并给出了一个建议的解决方案:XYZ SCIENCE 基于700万篇学术论文从0开始训练的一个风格改写模型,非常适合降AI率这个场景,因为这从根本上实现了“由风格改写模型去对抗风格分类模型”。

要想降AI率,首先你得知道AI率是怎么来的,如何进行检测的?
第一部分:AI内容检测技术的核心原理与分类
1.1基于统计特征的检测技术
该技术不完全依赖于端到端的黑盒分类器,而是通过分析文本的内在统计属性来做出判断。其基本假设是,AI生成的文本在统计分布上与人类写作存在显著差异。
- 实现原理:这类方法主要关注几个核心指标:
- 困惑度 (Perplexity) :困惑度衡量一个语言模型对一段文本的“惊讶”程度。通常,由某个语言模型(如GPT-4)生成的文本,对于该模型自身或其他类似模型来说,其预测性非常高,因此困惑度会异常地低。人类的写作则充满了更多的不确定性和创造性,因此困惑度相对较高 。检测器可以计算文本的困惑度,并将其与一个阈值进行比较。
- 突发性 (Burstiness) :人类写作在句子长度、结构和词汇选择上通常表现出高低错落的“突发性”。例如,可能会有几个短句紧跟着一个长句。而AI生成的文本倾向于更加均匀和一致,句子长度和复杂度的方差较小 。通过分析文本中句子长度和结构的变异性,可以辅助判断其来源。
- N-gram频率分布:分析文本中常见词组(n-grams)的出现频率。AI模型可能会过度使用某些特定的、在其训练数据中常见的短语,导致其n-gram分布与人类写作不同 。
1.2 基于分类器的检测技术 (Classifier-Based Detection)
这是目前最主流和最直接的检测方法。其核心原理是利用机器学习,特别是深度学习模型,来学习并区分人类写作与AI生成文本之间的差异。
- 实现原理:研究人员会构建一个包含大量人类撰写文本和由各种AI模型生成文本的庞大训练数据集。然后,使用这个带有明确标签(“人类”或“AI”)的数据集来训练一个分类模型 。这个模型通常基于强大的预训练语言模型架构,如BERT或RoBERTa。通过微调,模型学会捕捉两种文本在语言风格、结构、逻辑连贯性等方面的细微差别。例如,OpenAI早期推出的AI文本分类器就是基于RoBERTa模型进行微调的 。当输入一段新文本时,该分类器会分析其特征,并输出一个概率,判断其属于AI生成的可能性。
- 优势:当训练数据覆盖足够广泛时,这类检测器对未曾见过的AI模型也具有一定的泛化能力 。
今年,知网、Turnitin都相继升级了AIGC检测功能,看起来更严格了,实际上是因为他们从原来的统计学方法(计算困惑度 Perplexity等)升级为了端到端的检测模型,基于Transformer模型架构。
实际上的检测功能,就是一个二分类模型,经过大量的人类论文写作数据和AI论文写作数据,训练得到一个二分类模型,来判断输入内容是否符合AI的写作风格。
为什么使用Transformer架构?因为当前的大语言模型都是基于Transformer架构,所以这样的分类模型准确率会非常高,这也是为什么Turnitin 和知网升级后,原来AI率为0的论文再次检测会被判定为AI的原因了。
第二部分:如何降AI
基于上述分析,我们知道AI检测 实际上就是对输入内容进行风格检测,所以降AI实际上就是一个“风格改写”任务。
目前网上大多教程都是使用提示词,让AI去进行改写降AI,这其实有些牵强,因为AI的输出就像公式一样,是死板的,你让它自己改自己的写作风格,几乎不能实现,就好比你习惯用右手写字,我让你改成左手写字,能直接实现吗?当然是不能。
那为什么很多平台在宣传自己的降AI功能呢?我试了一下,对于学术论文来说,基本上改写完以后就面目全非了,把论文改写成极度口语化的作文,确实AI率降低了,但是论文同样也没有用了!
所以,让AI去改AI生成的内容,这是行不通的,必须得通过最底层去解决问题。
目前来看,XYZ SCIENCE(www.xyzscience)提供的解决方案是最正确的:
他们从0开始训练了一个风格改写模型,输入【AI风格文本】——输入【人类风格文本】。
基于700完篇纯学术论文数据,训练一个只有单一功能(改写)的模型,可以确保在降低论文AI率的同时,依然保持输出内容的学术风格。

我专门让GPT\Gemini等AI生成了20篇不同领域的学术论文,对于英文论文来说,以Turnitin的检测结果为标准,测试了10篇论文,首次检测全部是90%以上,第第一次改写后,有6篇 AI率变为0,2篇变为*(19%以内),还有两篇是30%左右,然后对这两篇进行二次改写,也全部变为0!
中文论文以知网的结果为准,10篇论文首次全部100%,从这个结果可以看出,升级后的知网准确率飙升,以前还会存在50%的的情况,现在直接100%。中文论文结果会更好一些,虽然10篇没有一个降为0,但是全都都在20%以内!6篇是个位数,4篇是百分之十几!
唯一一个小缺点:字数会变少一下
不过也可以理解,AI生成的论文内容就是比较啰嗦的,降AI后明显就能看出来,写的像正常人类学者写的一样简介明了,没有车轱辘话。
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)