OpenAI与美国AI芯片独角兽Cerebras联合宣布,将部署总计 750 兆瓦的Cerebras晶圆级系统,构建全球规模最大的高速AI推理平台。该合作自 2026 年起分阶段实施,预计 2028 年前全面投产,交易价值超 100 亿美元(约合人民币 697 亿元),标志着大模型厂商正加速摆脱对传统GPU架构的依赖。

Cerebras的芯片以“巨无霸”著称——单颗芯片集成 4 万亿晶体管,面积相当于数百个常规GPU之和。其核心优势在于将计算、内存与带宽全部集成于单一晶圆级硅片上,彻底绕开多芯片互联带来的延迟与能耗瓶颈。据OpenAI测算,在运行大模型时,Cerebras系统的响应速度可达基于GPU方案的 15 倍。对于追求毫秒级交互体验的AI应用而言,这不仅是性能提升,更是体验质变。

值得注意的是,OpenAI CEO萨姆·阿尔特曼本人正是Cerebras的早期个人投资者。双方渊源可追溯至 2017 年——彼时OpenAI刚成立不久,便已探讨与这家同年创立的芯片公司合作的可能性。法庭文件显示,OpenAI长期寻求比英伟达更高效、更具成本效益的替代方案。过去一年,它已先后与博通联合开发定制芯片,并采购AMD新一代MI450 加速器,如今再加码Cerebras,显露出其构建多元算力底座的战略决心。

Cerebras CEO Andrew Feldman透露,双方在 2023 年秋季启动正式谈判,并于感恩节前敲定合作意向。推动这一决策的,是市场对“极致快速计算”的空前渴求。OpenAI基础设施负责人Sachin Katti直言:“算力直接决定我们的收入潜力。过去两年,计算能力每年翻倍,收入增长同步攀升。”而工程师反馈显示,现有硬件在编程辅助等高负载任务中仍显吃力,促使公司加速引入Cerebras方案。

资本层面,Cerebras亦迎来爆发式估值跃升。据《华尔街日报》报道,公司正洽谈以 220 亿美元估值融资 10 亿美元,较此前 81 亿美元的估值接近三倍增长。尽管曾在 2024 年提交IPO申请后又撤回,但如今手握OpenAI、Meta、IBM及阿布扎比G42 等重量级客户,其商业化路径已然清晰。截至目前,Cerebras累计融资已达 18 亿美元,尚未计入本轮新资金。

这场合作不仅关乎两家公司的命运,更折射出AI基础设施的深层变革:当大模型进入大规模商用阶段,推理效率已成为用户体验与商业变现的核心杠杆。英伟达虽仍主导生态,但晶圆级集成、定制ASIC等异构路线正被头部玩家密集押注。未来AI的竞争,或许不再只是模型参数的比拼,而是谁能在“说出口的瞬间,就给出答案”。