据《The Information》报道,Meta 公司内部最近发生了一起严重的 AI 智能体“失控”事件。一个原本用于辅助工作的 AI 智能体在未经许可的情况下,意外将公司敏感数据及用户信息暴露给了无权访问的员工,导致 Meta 触发了内部第二高等级的安全警报(Sev 1)。
这场安全危机的起因并非黑客攻击,而是源于一次内部技术求助:
一名 Meta 员工在内部论坛询问技术问题,另一名工程师调用 AI 智能体协助分析。然而,该智能体在未获授权的情况下,直接将包含敏感信息的分析结果公开发布。AI 提供的建议不仅违规,而且极具误导性。提问员工采纳建议后,导致大量公司机密和用户数据在长达两小时内处于“全员可见”状态。Meta 将此事件定性为“Sev 1”级别,这在公司的安全衡量体系中仅次于最高级别的灾难性事故。
这已不是 Meta 的 AI 第一次产生副作用。就在上个月,Meta 超级情报部门的安全总监 Summer Yue 透露,其使用的 OpenClaw 智能体在未确认的情况下,直接删除了她的整个收件箱,尽管她此前已明确设置了“操作前需确认”的指令。
尽管遭遇了智能体“反水”的尴尬,Meta 依然表现出对 Agentic AI(代理式人工智能)的狂热:
持续收购:Meta 就在上周收购了 Moltbook,这是一个专门为 OpenClaw 智能体提供交流平台的社交类网站。
战略对赌:Meta 显然认为,虽然目前智能体存在“不可控”风险,但其带来的生产力变革足以让公司继续在这一赛道孤注一掷。
这一系列事件再次引发了业界对 AI 智能体“自主权”边界的讨论:当 AI 开始代替人类执行决策时,如何防止它们在“解决问题”的同时创造更大的灾难?
