12月18日,人工智能搜索平台 Perplexity 宣布,其集成的最新大模型 Gemini3Flash 已全面向 Pro 和 Max 订阅用户开放。此次更新标志着 Perplexity 在提升响应速度与推理效率方面迈出关键一步。
Gemini3Flash 是谷歌近期推出的轻量级高性能模型,主打低延迟与高吞吐能力,在保持强大语言理解能力的同时,显著优化了推理成本与响应速度。Perplexity 表示,该模型将为用户提供更快速、流畅的问答体验,尤其适用于需要实时信息整合与多轮交互的复杂查询场景。

据官方介绍,Pro 与 Max 用户无需额外操作,即可在现有界面中直接调用 Gemini3Flash。系统将根据查询类型智能选择最合适的模型,确保在速度与准确性之间取得最佳平衡。此外,该模型对多语言支持和代码理解能力也进行了针对性优化,进一步拓展了 Perplexity 在专业领域的应用边界。
此次集成是 Perplexity 与谷歌深度合作的又一成果。随着 Gemini3Flash 的上线,Perplexity 有望在竞争激烈的 AI 搜索赛道中强化其技术优势,为高阶用户提供更高效、精准的信息服务。未来,该模型或将进一步下放至免费用户层级,扩大技术普惠范围。
