三周前GPT-5.5刚落地,GPT-5.6的消息已经提前炸出来了。
知名爆料人Leo透露,GPT-5.6目前开发进度已全速推进,首批内部检查点在过去几天已启动测试,下个月很可能就会正式露面。更有意思的是,有人从OpenAI内部Codex日志里扒出了rollout mapping的痕迹——大部分调用还是指向GPT-5.5,但有一条记录赫然落在了GPT-5.6身上。换句话说,Codex环境里可能已经在偷偷用它跑测试了。内部代码名也被顺带曝光:ember-alpha 和 beacon-alpha。
网友直呼:这迭代速度,根本追不上。

速度再度拉满——Codex即将上线ultrafast模式
GPT-5.6还没到,OpenAI产品端已经先按捺不住了。
爆料人Chetaslua同步透露,本周四OpenAI将在Codex上线"ultrafast模式",响应速度直接提升2到3倍,专门为延迟敏感型任务设计。与此同时,Image Arena排行榜上以+242分断档领先的gpt-image-2,也在同步推进A/B测试更新。
这不是第一次了。今年3月GPT-5.4发布时,/fast模式已经实现了1.5倍加速;GPT-5.3-Codex-Spark借助Cerebras芯片,更是把推理速度拉到每秒超过1000token,是普通模式的15倍。而这次的ultrafast,直接在旗舰主力模型上实现提速——不是阉割版,不是小模型凑数,是正儿八经的全尺寸加速。

对开发者来说,Agent循环、长任务流水线、浏览器自动化……所有需要"等"的地方,体验将彻底不同。
顺带一提,上周ChatGPT官方账号发出一张科幻感十足的图,界面上那句经典的"Ask ChatGPT"悄悄换成了"Message ChatGPT"。奥特曼丢下一句"Call me maybe",让外界对ChatGPT集成语音通话乃至推出硬件产品的猜测,彻底烧开了。
Codex vs Claude Code,补贴战正式开打
硅谷最戏剧性的一幕,就在今天上演了。
就在OpenAI ultrafast模式上线前夕,Anthropic率先出手——宣布从6月15日起,为付费用户每月提升50%的编程额度,覆盖Claude Agent SDK、命令行工具以及深度接入GitHub工作流的Claude Code,并同步发布了Opus4.7Fast模式,主打比Codex更快的高级推理与更流畅的长上下文编码体验。
OpenAI没让人等太久。反手祭出一招重磅补贴:接下来30天内,任何想从其他平台迁移到Codex的企业,直接获赠2个月免费使用权。按Pro计划每月200美元算,相当于白送400美元。奥特曼本人亲自下场喊话,直言Codex是"目前市面上最强的AI编程产品"。
仅仅几个小时后,战报出炉:2000名开发者在3小时内主动联系了OpenAI。
这场怼脸硬刚,看呆了整个硅谷。开发者们倒是乐了——被两家顶级公司抢着补贴,这种好事,上哪儿说理去。
飞轮已经开始自转
把这两件事放在一起看,会发现一个比任何单一新闻都更值得关注的趋势正在成形。
AI正在加速自我进化。GPT-5.3-Codex是OpenAI首个"参与自身训练"的模型,到GPT-5.5,OpenAI内部85%的员工每周都在用Codex写代码。GPT-5.6几乎可以确定是在GPT-5.5的深度参与下开发出来的——AI在帮OpenAI造更强的AI。
与此同时,编程工具的大规模普及正在释放前所未有的工程产能。Codex已有300万周活跃用户,Claude Code的用户数同样在爆发式增长。数百万开发者把AI编程工具当成日常标配,AI生成的代码又反哺回AI的训练与部署,这个循环只会越转越快。
奥特曼说过,OpenAI的目标已经不止于AGI,直接瞄准了ASI。
当模型迭代速度由AI自身驱动,当AI编程工具成为AI开发的基础设施,当两家万亿级公司用"补贴战"加速这一切的普及——
通往ASI的飞轮,已经开始自转了。
