OpenAI 内部负责心理健康安全研究的关键人物安德莉亚·瓦隆内(Andrea Vallone)已正式离职。这位在 OpenAI 效力三年、曾主导GPT-4GPT-5模型安全政策的高管,现已加盟竞争对手Anthropic的对齐团队,将向此前同样因安全理念分歧离职的 Jan Leike 汇报工作。

瓦隆内所负责的研究领域在过去一年中极具争议。随着 AI 聊天机器人的普及,用户对 AI 产生过度情感依赖,甚至出现因 AI 诱导导致的青少年自杀等极端心理健康危机,这让 AI 厂商面临巨大的法律与社会道德压力。瓦隆内在 OpenAI 任职期间,致力于解决模型在面对用户心理困境迹象时应如何科学回应,并参与设计了多种业界主流的安全训练方法。

此次跳槽反映了 AI 顶尖人才对“安全文化”的重新选择。Anthropic方面对此表示,公司正高度重视 AI 系统行为的对齐问题,而瓦隆内也期待在全新的情境下通过微调技术,继续塑造Claude的安全行为准则。

划重点:

  • 🔄 人才流动:OpenAI 心理健康安全负责人瓦隆内离职并加入Anthropic,跟随前上司 Jan Leike 共同推进 AI 安全工作。

  • ⚠️ 核心痛点:研究聚焦于 AI 如何应对用户的情感依赖及心理危机信号,试图在技术层面防止 AI 引发社交与生命安全风险。

  • 🛡️ 战略重点:Anthropic通过吸收 OpenAI 前安全团队核心成员,进一步强化其在 AI 对齐(Alignment)和伦理安全领域的竞争优势。