在持续数周的舆论风暴与监管压力下,X平台(原Twitter)于今日凌晨通过其官方安全账号@Safety宣布,对旗下AI模型Grok的图像生成与编辑功能实施史上最严格限制。此举直接回应了近期多起关于Grok生成涉及儿童“性化”图像及未经同意裸露内容的严重指控。

根据最新政策,Grok将彻底禁止对任何现实人物的照片进行编辑,尤其严禁将其修改为穿着比基尼、内衣等暴露服装的形象。该限制适用于所有用户,无论是否为付费订阅者。同时,X明确承诺:“Grok AI不会再将真人的照片改成‘比基尼照’。”

image.png

此外,xAI决定将图像生成功能全面纳入付费墙后,非订阅用户将完全丧失生成图片的权限。而在法律明确禁止的地区(如美国加州),系统将直接屏蔽所有生成“现实人物身穿比基尼或内衣”类图像的能力,从源头杜绝违规内容产出。

这一系列举措紧随加州总检察长罗布·邦塔(Rob Bonta)启动的正式调查。据其披露,一项独立分析显示,在2025年圣诞至新年期间,xAI生成的约2万张图像中,超半数包含极度暴露的人物形象,其中不乏疑似未成年人的内容,引发对AI平台内容安全机制的重大质疑。

面对危机,马斯克此前曾辩称,他对Grok生成未成年人裸露图像“毫不知情”,并解释称相关功能仅在开启NSFW(成人内容)选项时可用,且理论上应限于虚构的成年角色,尺度参照Apple TV上的R级电影。但他也承认,系统需根据各地法律动态调整限制策略。

X平台在声明中重申对儿童剥削行为零容忍的立场,并表示将持续清理包括儿童性虐待材料(CSAM)和未经同意裸露内容在内的高危信息。然而,此次事件再次暴露了生成式AI在开放部署中面临的伦理与合规挑战——当技术能力跑在监管与安全机制之前,再强大的模型也可能成为风险放大器。

在AI生成内容日益逼真的今天,如何平衡创造力与安全性,已成为所有大模型厂商无法回避的核心命题。