百度于2026年5月11日正式发布新一代语言模型Ernie5.1,该模型基于今年1月推出的、拥有2.4万亿参数的Ernie5.0预训练底座提取而成。通过创新的“一次性弹性训练框架”,百度实现了在单一训练运行中优化多种尺寸模型的能力,使得Ernie5.1的预训练成本仅为同类模型的6%。

QQ20260512-093146.jpg

截至5月9日,Ernie5.1在Arena Search排行榜上以1223分位列全球第四、中国模型第一,展现出极高的资源利用率与性能平衡能力。

在架构层面,Ernie5.1采用深度、宽度及活跃专家数量可调的子模型配置,其参数量仅为前作的三分之一,单次查询有效参数量也减少约一半。为攻克多技能训练中的“跷跷板效应”,百度应用了四阶段后训练流程,通过并行专业化训练代码、推理及代理专家模型,并结合策略蒸馏与强化学习,成功解决了编程能力与创造力相互干扰的行业难题。此外,重建的强化学习基础设施将模型更新、响应生成与评估解耦运行,配合标准化低精度计算库,显著提升了大规模训练的稳定性。

QQ20260512-093200.jpg

目前,Ernie5.1已集成至百度AI Studio及多款创意应用平台。虽然模型权重尚未开源,但其在GPQA、MMLU-Pro等基准测试中展现出比肩Gemini3.1Pro的推理水平,预示着大模型竞争已从单纯的规模竞赛转向效能与垂直能力的深度对垒。