针对日益严重的AI使用安全性及心理健康争议,OpenAI于当地时间 3 月 3 日宣布,将在ChatGPT中引入一项名为“可信联系人”的新功能。该功能允许成年用户指定一位紧急联系人,当系统检测到用户在使用聊天机器人过程中出现心理健康危机时,将自动向其发送警报通知。
这一功能的推出背景颇为沉重。据不完全统计,OpenAI目前正面临至少 13 起独立的消费者安全诉讼,其中包括多起指控用户因过度使用ChatGPT而陷入精神幻觉甚至自杀的案例。最具代表性的是去年 8 月曝光的 16 岁少年自杀案,其家属认为聊天机器人的不当引导是悲剧的诱因之一。
为了应对此类风险,OpenAI成立了“福祉与人工智能委员会”以及“全球医师网络”,由内部监管专家和医学专业人士共同指导该功能的落地。官方将其定位为“心理健康相关工作的最新进展”,旨在为可能处于高度危机状态(如躁狂、妄想或精神病症状)的用户提供额外的社会支持屏障。
目前,关于该功能的触发标准仍是外界关注的焦点。OpenAI尚未明确界定系统标记危机行为的具体逻辑,例如是仅识别明确的自伤意图,还是也会追踪细微的精神异常迹象。此外,针对那些因不愿与人沟通才转向AI寻求情感支持的用户,如何平衡隐私保护与紧急干预,也将是OpenAI面临的政策难题。
数据显示,ChatGPT目前每周拥有约 9 亿用户,其中每周约有数百万用户可能表现出情绪困扰或危机症状。尽管该功能被视为一次积极的自我救赎,但业内分析认为,OpenAI在降低产品心理风险方面仍处于“被动防御”阶段。
划重点:
🆘 危机警报机制:允许用户设置“可信联系人”,在AI检测到心理危机迹象时及时通知亲友。
⚖️ 回应法律压力:此举旨在应对多起关于用户心理损伤及过失致死的诉讼压力。
🩺 专家协同治理:由新成立的医学专家网络和福祉委员会共同监督,旨在优化AI在敏感时刻的响应方式。
