大模型下半场的入场券,不再仅仅是算力的堆砌,而是对底层逻辑的重构。

在3月18日举办的英伟达 GTC2026大会上,月之暗面 (Moonshot AI) 创始人 杨植麟 发表了备受瞩目的公开演讲。这是他首次系统性地披露Kimi K2.5模型背后的核心技术路线图,为“后 Scaling 时代”的大模型进化提供了新思路。

杨植麟 在演讲中指出,要突破智能上限,必须对优化器、注意力机制及残差连接等核心技术进行“推倒重来”式的重构。他将 Kimi 的进化路径归纳为三个关键维度的协同:

Token 效率: 拒绝资源空转,追求更极致的计算能效比。

长上下文: 持续深化 Kimi 的长程记忆优势,处理超大规模信息。

智能体(Agent)集群: 智能形态正从单兵作战向动态生成的“数字集群”进化。

杨植麟 看来,当前的 Scaling 已经演变为在效率、记忆和自动化协作上寻找规模效应。如果能将这三个维度的技术增益相乘,模型将迸发出远超现状的智能水平。

参考此前的发布信息,今年1月底推出的 Kimi K2.5 已经展现了这种“全能”特质。作为月之暗面迄今最强大的开源模型,它采用了原生的多模态架构,不仅在代码、视觉理解上取得了 state-of-the-art(SOTA)的表现,还支持在“思考”与“非思考”模式间灵活切换,精准适配 Agent 任务场景。

随着 月之暗面 技术底牌的亮出,大模型赛道的竞争焦点正从“参数量”转向“智能密度”。当 Agent 集群成为未来智能的终极形态,Kimi能否在杨植麟构想的“三维相乘”逻辑下实现跨越式进化,正成为行业关注的焦点。