本文已首发于 秋码记录
微信公众号:你我杂志刊
在这里插入图片描述

如果你也想搭建一个与秋码记录一样的网站,可以浏览我的这篇 国内 gitee.com Pages 下线了,致使众多站长纷纷改用 github、gitlab Pages 托管平台

秋码记录网站使用的主题是开源的,目前只在github.com开源。
hugo-theme-kiwi开源地址:https://github.com/zhenqicai/hugo-theme-kiwi

这不Gemma3刚开源出来,立马炸裂了整个“科技界”,还没等它把“热度”持续火下去,Mistral-Small3.1却再次掀起了“科技界”的热度。

Mistral-Small3.1Mistral AI推出的240亿参数开源多模态模型,基于Transformer架构优化设计,核心特性包括:

  • 多模态支持:支持文本与图像结合的任务处理,扩展了应用场景边界。
  • 128k超长上下文窗口:可一次性处理长篇文档或复杂对话,显著优于前代的32k窗口。
  • 高效推理引擎:采用量化技术优化推理速度,每秒处理150个token,延迟低至毫秒级,适合实时交互场景。
  • 本地化部署能力:支持在RTX 4090显卡或32GB内存的Windows设备上运行,通过Ollama等工具实现轻量化部署.

在这里插入图片描述

通过Ollama部署

那么,接下来,我们在本地通过Ollama来部署Mistral-Small3.1

如果你还没安装Ollama的话,那么,你可以去它的官网进行下载安装,Ollama官网

我这里选择了量化版,根据自己电脑的硬件设备来下载对应的量化版本

在这里插入图片描述

拷贝命令,直接黏贴到Terminal中。

ollama run MHKetbi/Mistral-Small3.1-24B-Instruct-2503:q6_K_L

在这里插入图片描述

在这里插入图片描述

主要特性和功能

  • 轻量级:Mistral Small 3.1 可以在单个 RTX 4090 或具有 32GB RAMMac 上运行。这使其非常适合设备上的使用情况。
  • 快速响应对话帮助:非常适合虚拟助手和其他需要快速、准确响应的应用程序。
  • 低延迟函数调用:能够在自动化或代理工作流程中快速执行函数
  • 针对专业领域进行微调:Mistral Small 3.1 可以针对特定领域进行微调,打造精准的主题专家。这在法律咨询、医疗诊断和技术支持等领域尤其有用。
  • 高级推理的基础:社区在开放的 Mistral 模型之上构建模型的方式继续给留下深刻印象。仅在过去几周,就看到了几个基于 Mistral Small 3 构建的出色推理模型,例如Nous ResearchDeepHermes 24B。为此,发布了 Mistral Small 3.1 的基础和指令检查点,以便进一步对模型进行下游定制。

如果你本地电脑硬件资源有限的话,那么是可以前往Mistral 官方平台上使用,上面是满血版【点击前往

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐