大家好,我是袋鼠帝

最近,我的AI交流群和别的一些AI群都炸锅了,话题的焦点是MiniMax-M1

添加图片注释,不超过 140 字(可选)

添加图片注释,不超过 140 字(可选)

添加图片注释,不超过 140 字(可选)

就在昨天,MiniMax把他们自家最新的旗舰推理模型MiniMax-M1开源了!

这个操作就好比某一天OpenAI突然把他家的推理模型O3开源一样(讲个笑话)

格局真滴大,不像对岸的"Close AI"

我愿称之为新一代源神!先来看看跑分

作为开源模型,MiniMax-M1的各项性能直逼国外的闭源模型:Claude 4 Opus、Gemini-2.5 Pro、OpenAI O3

添加图片注释,不超过 140 字(可选)

这个跑分的解读可以看看卡子哥的文章,非常详细,而且通俗易懂

MiniMax-M1解读 数字生命卡兹克,公众号:数字生命卡兹克MiniMax深夜开源首个推理模型M1,这次是真的卷到DeepSeek了。

我们本次重点看这个跑分图里,最后一组数据:MRCR(4-needle),远超其他大模型,仅次于Gemini-2.5 Pro

MRCR(4-needle)代表的是多轮共指消解(Multi-Round Co-referenceResolution)任务里,在超长文本上下文环境中"埋设"4个关键信息片段(即 “针”)的测评场景,用于评估大语言模型在复杂长文本、多轮交互情境下的上下文理解与信息检索能力

MiniMax-M1也成为了世界最长上下文的推理大模型

支持100万tokens(1M)输入和8万tokens的输出。

要知道DeepSeek R1才仅仅支持128K上下文。

而且MiniMax-M1官方API的价格也是非常香,就白菜价,随便用。

添加图片注释,不超过 140 字(可选)

下面是国内的API价格

添加图片注释,不超过 140 字(可选)

说实话,大模型支持的上下文长度,和上下文理解能力非常重要!

群友今早也在研究,但是不清楚MiniMax-M1的优势可以有效的应用到哪些场景。

添加图片注释,不超过 140 字(可选)

于是我整理了5种非常实用的场景(涵盖API),逐一测试,效果都不错,分享给大家。

在测试之前,我们先做好准备工作

目前MiniMax-M1在MiniMax官网就能使用

海外地址:

https://chat.minimax.io/

国内地址:

https://chat.minimaxi.com/

记得开启Think,否则使用的是MiniMax-Text-01

添加图片注释,不超过 140 字(可选)

同时,为了方便后续API的测试,我们还需要获取MiniMax的apikey、API地址

本次测试我使用的是MiniMax海外版

原因无他,还剩很多余额

添加图片注释,不超过 140 字(可选)

先访问如下地址创建apikey

https://www.minimax.io/platform/user-center/basic-information/interface-key

添加图片注释,不超过 140 字(可选)

MiniMax的海外版聊天API地址:

https://api.minimax.io/v1/text/chatcompletion_v2

MiniMax的国内版聊天API地址:

https://api.minimaxi.com/v1/text/chatcompletion_v2

模型名称就是:MiniMax-M1

好了,话不多说,直接开始

1.超长内容连贯输出

这个Case来自群友@星枫涵

他要求MiniMax-M1输出3万字的S500防空导弹的详细介绍

添加图片注释,不超过 140 字(可选)

添加图片注释,不超过 140 字(可选)

添加图片注释,不超过 140 字(可选)

添加图片注释,不超过 140 字(可选)

添加图片注释,不超过 140 字(可选)

添加图片注释,不超过 140 字(可选)

添加图片注释,不超过 140 字(可选)

添加图片注释,不超过 140 字(可选)

添加图片注释,不超过 140 字(可选)

但是大模型还是没有办法一次性输出太多内容

所以第一次只是给了内容大纲

通过后续让MiniMax-M1生成了8次,最终得到了自己想要的内容,关键是内容非常连贯,得益于MiniMax-M1的超长上下文记忆能力。

MiniMax-M1非常适合用来生成论文,或者长篇小说等。

毕竟这些领域都是需要模型记住的上下文越多越好,这样生成的内容越来越多时才不至于跟开头脱节。

还可以用于小说续写:

我在3月份这篇文章里面就用MiniMax当时开源的MiniMax-Text-01模型(同样是具有超长上下文理解能力)进行了小说续写

MiniMax-Text-01 袋鼠帝、kiki,公众号:袋鼠帝AI客栈AI视频新王诞生!中国开源模型如何颠覆RAG/Agent?【含喂饭级使用教程】

续写的小说内容真有那味,感觉就是作者本人写的,完全没有违和感,故事情节也很合理。

续写辰东在24年9月份新上线的小说--《夜无疆》,目前还在持续更新中

添加图片注释,不超过 140 字(可选)

插播一下:群友对MiniMax-M1的评价是真滴高呀

添加图片注释,不超过 140 字(可选)

2.做AI知识库的数据预处理

大伙应该都知道,打造AI知识库的第一步就是要做数据预处理,在之前的知识库相关文章中我也讲过很多次了。

然后我通常都是用我自己公众号的文章来作为我的知识库数据源

但是有一个小问题:公众号文章里面每篇的开头和结尾都会有一些重复的信息。

这块信息如果一起上传到知识库,那么问答的时候就会被频繁提取出来传给大模型,这样不仅浪费tokens还会一定程度上会干扰大模型的回答。

所以我进行了下面这样一个测试:

我把我去年写的kimi接入微信一、二、三丢过去,让MiniMax-M1合并文章的同时也"掐头去尾"。

添加图片注释,不超过 140 字(可选)

最终得到的效果很不错,它保留了关键信息,去除了冗余的其他内容。

除了这种处理场景外,还可以批量把数据源文件转英文,或者把英文文献转中文,MiniMax-M1能够最大程度的还原信息。

在实际的预处理场景中,肯定不止几个文件。

这时我们就可以使用MiniMax-M1的API接口来批量处理~

3.长文本内容提取

我把我去年和今年的部分文章(30篇)合并成了一个95M的PDF(一共267页)

丢给MiniMax-M1,让它帮我提取其中提到kimi和n8n的文章的标题

添加图片注释,不超过 140 字(可选)

提取的完全正确,除了11和12那两个是多余的以外...

说实话,已经很强了,毕竟是一整个合并的PDF,能从267页PDF里面找出正确的内容,并识别标题已经不错了。

4.拯救知识库问答效果

最近被知乎推送了不少关于长文本 VS RAG的问答

添加图片注释,不超过 140 字(可选)

我的观点是RAG作为大模型的外脑肯定不会在短时间淘汰。

小孩才做选择,成年人全都要

长上下文的大模型+RAG才是强强联手,我称之为"大力出奇迹"。

因为MiniMax-M1能理解的上下文非常大(100万tokens)

所以在RAG的索引流程-分块(chunk)可以直接把语义连贯的内容分到一个chunk(比如一整篇文章一个chunk),不用担心chunk太大。

而且在设置最低相关度的时候也可以把score值调低,这样即便在回答流程中检索出大量无关内容,也可以依靠模型的超长上下文理解能力提取出准确答案。

这个方案可以减少在RAG上的调优工作,更依靠模型本身的长上下文理解能力,也能显著提高知识库问答效果。

而且MiniMax-M1的API是白菜价,不用担心会烧钱,随便用~

3月份分享了一篇用MiniMax-01拯救Dify知识库的文章,里面有详细的落地步骤(换成MiniMax-M1也是一样),接入AI知识库的朋友可以看看。

长上下文结合RAG拯救知识库问答效果 袋鼠帝,公众号:袋鼠帝AI客栈dify v1.1.0接入这个开源LLM,知识库效果直接起飞,真可以封神了!【喂饭级教程】

如果是使用fastgpt搭建的知识库,也可以参考下面的配置接入MiniMax-M1模型。

注意:API地址要填写完整

添加图片注释,不超过 140 字(可选)

5.开源项目解读

这么长的上下文理解能力,不用来解读开源项目简直太浪费了

在Trae里面配置上MiniMax-M1模型

Trae居然还没支持minimax渠道,硅基流动倒是很快,就已经支持了昨天才开源的minimax-m1模型

添加图片注释,不超过 140 字(可选)

以开源项目fastgpt为例

fastgpt有一些商业版才能用的功能,比如把bot一键发布到公众号,飞书机器人。

添加图片注释,不超过 140 字(可选)

如果现在想基于fastgpt开源代码来自己二次开发实现,首先肯定得找对位置。

让MiniMax-M1查找微信公众号接入的代码位置,简直就是信手拈来。

找到实现位置之后,我们就可以进一步让AI辅助二次开发了

添加图片注释,不超过 140 字(可选)

添加图片注释,不超过 140 字(可选)

再上点强度(如下图)

让MiniMax-M1总结:

在FastGPT整个项目代码及文件中,关键词"minimax"出现在哪些具体文件里,以及出现的总次数。

添加图片注释,不超过 140 字(可选)

左边是用Trae全局搜索minimax关键词的标准答案(4个文件,出现12次)

右边是MiniMax-M1给出的结果:4个文件,出现11次...

添加图片注释,不超过 140 字(可选)

添加图片注释,不超过 140 字(可选)

稍微有点可惜,本来第三条它列出的那一行代码中就出现了两个minimax关键词,但是可能是在一行,它就只统计了一次,所以最后的答案就少统计了1次。

好了,以上就是我整理的MiniMax-M1的五个经典使用场景,希望对大家有帮助~

MiniMax-M1Github地址:

https://github.com/MiniMax-AI/MiniMax-M1

HuggingFace地址:

https://huggingface.co/MiniMaxAI/MiniMax-M1-80k

「最后」

体验下来,我感觉MiniMax的基座模型真的是被严重低估了,属于被埋没的黑马型选手。

这种超长上下文理解能力在很多场景下都非常实用。

真的就像他们官网那句话

添加图片注释,不超过 140 字(可选)

Ask anything! No question too long, no query too complex

有问题,尽管问,内容再长也不在话下

希望MiniMax在长上下文这块继续发扬光大,以支持更长的上下文和更强的"大海捞针"能力。

如果你的使用场景正好受限于模型的上下文长度,不妨试试MiniMax-M1

使用过程中如遇到什么问题,欢迎评论区交流~

能看到这里的都是凤毛麟角的存在!

如果觉得不错,随手点个赞、在看、转发三连吧~

如果想第一时间收到推送,也可以给我个星标⭐

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐