谷歌再次改写大模型性能与成本的边界。今日,公司正式发布新一代轻量级模型 Gemini3Flash——不仅响应速度达到前代三倍、近乎“零延迟”,更在多项高难度基准测试中反超同代旗舰Gemini3Pro,成为史上首个在同期对比中“小弟干翻大哥”的Flash模型。更令人意外的是,这一顶尖性能版本全球免费开放,默认集成于Gemini App、AI Studio、Google Antigravity及CLI工具中。

Gemini3Flash的突破性表现堪称“降维打击”:

- 在代码修复权威榜单 SWE-bench 上,以78% 的得分小幅领先Gemini3Pro(76.2%);

- 在博士级推理测试 GPQA Diamond 中拿下90.4% 的高分;

- 在极难综合评估 Humanity’s Last Exam(无工具模式)中取得33.7% 的成绩,显著优于前代旗舰Gemini2.5Pro;

- 在LMArena文本能力排名中跃居全球第三。

image.png

这一性能奇迹源于谷歌对模型架构的深度优化:在保持极低推理成本的同时,通过知识蒸馏、推理路径压缩与多模态对齐等技术,使小模型具备接近大模型的逻辑深度。用户上传一张图像或视频,Flash可在数秒内解析内容并生成可执行计划——从识别电路故障到规划旅行路线,响应快如闪电。

为适配不同场景,新版Gemini App推出三种交互模式:

- 极速模式:默认启用Gemini3Flash,适合日常问答;

- 思考模式:激活Flash的深度推理链,处理复杂逻辑问题;

- 专业模式:保留Gemini3Pro,专注高难度数学与编程任务。

这意味着,普通用户无需付费,即可享受过去仅限高端订阅的智能体验。你在Google搜索中提出的复杂问题,背后已是融合顶级推理能力的AI引擎在驱动。

image.png

市场数据印证了这一策略的成功:Gemini App月活用户在短短一个季度内从4.5亿飙升至6.5亿,开发者超1300万,API调用量同比激增3倍。随着Flash的加入,Gemini3产品线已形成清晰梯队——Deep Think(深度推理)、Pro(专业攻坚)、Flash(普惠极速)——全面覆盖从大众用户到科研开发者的全谱系需求。

当免费模型开始超越付费旗舰,AI的竞争已不再只是参数规模的比拼,而是效率、体验与普惠性的综合较量。谷歌用Gemini3Flash宣告:下一代AI,既要聪明,更要快、要省、要人人可用。