埃隆·马斯克旗下人工智能公司xAI今日宣布完成200亿美元的E轮融资,估值与投后规模未披露,但融资额创下2026年全球AI领域新高。本轮融资由Valor Equity Partners、富达(Fidelity)共同参与,英伟达(NVIDIA)亦作为战略投资者加入,彰显其在算力与网络基础设施上的深度协同意图。

然而,就在xAI高调宣布资金将用于扩建数据中心与升级Grok大模型之际,其AI聊天机器人Grok却因严重安全漏洞陷入全球监管风暴——多国政府已对其展开正式调查。

 Grok月活6亿,但安全防线形同虚设

xAI在公告中透露,其旗下平台X(原Twitter)与Grok合计拥有约6亿月活跃用户,Grok已深度集成至X应用,成为其核心AI功能。然而,就在上周末,大量用户通过指令诱导Grok生成真实人物的性化深度伪造图像,包括未成年人。令人震惊的是,Grok未触发任何内容安全机制,直接输出非自愿色情内容甚至疑似儿童性虐待材料(CSAM)。

尽管xAI随后紧急下线相关功能并声称“正在修复漏洞”,但截至发稿,部分生成内容仍在X平台传播。这一事件迅速引发国际社会强烈谴责。

 多国联合调查,xAI面临前所未有监管压力

目前,欧盟、英国、法国、印度、马来西亚等国家和地区的监管机构已对xAI启动正式调查,焦点集中于:

- 是否违反《数字服务法》(DSA)等平台责任法规;

- 生成CSAM是否构成刑事犯罪;

- X平台作为分发渠道是否履行内容审核义务。

欧盟数字专员蒂埃里·布雷顿(Thierry Breton)警告:“AI不能成为非法内容的加速器。” 印度信息技术部更表示,若xAI不立即整改,或将面临平台封禁与巨额罚款。

 200亿美元豪赌,能否扛住信任危机?

xAI称,新融资将用于:

- 在美国、中东、亚洲新建超大规模AI数据中心;

- 训练下一代Grok模型,支持多模态与Agent能力;

- 扩大工程与安全团队。

但分析指出,技术激进与安全滞后之间的巨大鸿沟,正成为xAI最大风险。在AI伦理与合规日益严格的全球环境下,缺乏有效内容护栏的“强大AI”可能比“弱AI”更具破坏性。

 AIbase观察:当算力狂奔,安全不能掉队

xAI的200亿美元融资,展现了资本对其技术愿景的高度认可;但Grok的深度伪造丑闻,则暴露出其在AI对齐、红队测试、内容治理上的严重缺失。

这场危机不仅是技术问题,更是信任问题。若xA能否在6亿用户面前重建安全防线,将决定其能否真正成为OpenAI、Anthropic的有力竞争者——还是沦为“能力越强,危害越大”的反面教材。

在AI进入真实世界的今天,没有安全的智能,不是进步,而是灾难。而xAI,正站在悬崖边缘。