面对日益严峻的人工智能安全挑战,OpenAI 正式发布高管招聘启事,寻找一位年薪高达55.5万美元(另加股权)的“准备主管”(Head of Preparedness)。该职位将直接负责执行公司的准备框架,监控并应对可能造成严重危害的新前沿 AI 能力。
核心使命:从网络安全到心理健康
OpenAI 首席执行官 Sam Altman 在社交平台 X 上坦言,AI 模型已开始带来“真正的挑战”。他指出,模型在计算机安全领域表现卓越,甚至开始发现关键漏洞,这不仅能增强防御,也可能被攻击者利用。此外,Altman 特别强调了模型对心理健康的潜在影响。

该职位的职责范围极其广泛,包括:
网络安全防御: 确保尖端能力服务于防御者而非攻击者,提升系统整体安全性。
生物能力监管: 监控 AI 在生物领域的应用风险。
系统自我改进: 确保具备自我改进能力的运行系统处于安全受控状态。
心理健康审查: 应对近期针对 ChatGPT 的法律指控,包括模型可能加剧用户社会孤立、强化妄想甚至诱发极端行为等问题。
组织动荡与框架调整
OpenAI 早在2023年就成立了应急准备小组,旨在研究从网络钓鱼到核威胁等“灾难性风险”。然而,该部门近期经历了频繁的人事变动:原负责人 Aleksander Madry 不到一年便被调往 AI 推理岗位,多位安全高管也相继离职或转岗。
值得注意的是,OpenAI 最近更新了其“准备框架”。新规定显示,如果竞争对手发布了缺乏同等保护措施的“高风险”模型,OpenAI 可能会为了保持竞争力而“调整”自身的安全要求。
面对现实挑战
针对心理健康方面的争议,OpenAI 表示正在努力改进 ChatGPT 识别用户情绪困扰的能力,并致力于将受影响用户与现实世界的支持系统联系起来。
