在开源大模型赛道,Mistral AI再次向行业展示了什么叫“效率至上”。今日,该公司宣布在 Apache2.0许可下正式开源其 Small 系列的最新力作——Mistral Small4,并同步宣布加入英伟达新成立的 Nemotron 联盟,成为创始成员之一。
这并非一次简单的常规升级。Mistral Small4 被官方定义为首款“三位一体”的多功能模型。它完美整合了 Mistral 家族此前引以为傲的三大旗舰能力:
Magistral: 卓越的逻辑推理能力。
Pixtral: 强大的原生多模态处理能力(支持图像输入)。
Devstral: 专业的智能体编码能力。
这意味着开发者无需再在“快指令模型”、“重推理引擎”或“多模态助手”之间做选择题,一个模型就能搞定所有场景。
在技术规格上,Mistral Small4 采用了精密的 128专家混合(MoE)架构。尽管总参数量达到了1190亿,但通过优化,每个 Token 仅激活4个专家(约60亿个活动参数),在保证性能的同时极大降低了算力开销。此外,256k 的超长上下文窗口,让它在处理长文档分析和复杂对话时游刃有余。
值得关注的是,该模型引入了“可配置推理强度”功能。用户可以在追求低延迟的快速响应和深度思考的推理输出之间自由切换。实测数据统计显示:
在延迟优化模式下,端到端完成时间减少了 40%。
在吞吐量优化模式下,每秒请求数(RPS)相比前代产品提升了 3倍。
从代码补全到视觉分析,Mistral Small4 的开源无疑为全球开发者提供了一个更灵活、更高效的“全能底座”。当顶尖推理能力与原生多模态合二为一,开源社区的创新天花板或将被再次拉高。