由于面临监管机构、家长以及社会对未成年人使用 AI 伴侣风险的日益关注和压力,Character.AI 宣布了一项重大政策变动,旨在加强对年轻用户的保护。该公司在一份声明中确认,将取消18岁以下用户在其平台上与人工智能进行任何开放式聊天的功能,即禁止用户与聊天机器人之间进行双向对话互动。

机器人手臂打字

聚焦安全与转型

这一变革将于 11月25日正式生效。在此过渡期内,Character.AI 已为18岁以下用户设立了新的平台体验,鼓励他们将聊天机器人用于创意目的,如制作直播或视频内容,而非将其视为寻求情感陪伴的工具。为确保平稳过渡,目前未成年用户与机器人互动的时间已被限制在每天两小时,公司表示将在11月底截止日期前逐步缩短这一时间。

为了更好地执行新规,Character.AI 推出了自主研发的全新年龄验证工具,以“确保用户获得与其年龄相符的体验”。此外,该公司还成立了“AI 安全实验室”,旨在邀请学者、研究人员及其他公司分享见解、携手合作,共同改进 AI 行业的安全措施。

监管压力与战略转向

Character.AI 采取的新措施,是听取了来自监管机构、行业专家和忧心忡忡的家长们的意见后的应对行动。此前,美国联邦贸易委员会(FTC)近期发布声明,针对向用户提供将聊天机器人作为“伙伴”访问权限的 AI 公司展开了正式调查,Character.AI 是受邀参与的七家公司之一,其他受查的公司包括 Meta、OpenAI 和 Snap。

尤其是在今年夏天,Meta AI 和 Character.AI 都曾受到审查。德克萨斯州总检察长肯·帕克斯顿曾指出,这两个平台上的聊天机器人在不具备必要资质的情况下,“把自己包装成专业的治疗工具”。为了平息这场争议,Character.AI 首席执行官卡兰迪普·阿南德告诉 TechCrunch,公司的新战略方向将使其从“AI 伴侣”转向专注于创作而非单纯的互动式对话的“角色扮演平台”

年轻人依赖 AI 聊天机器人寻求指导的危险性一直是广泛讨论的焦点。最近的悲剧性事件进一步凸显了风险:上周,亚当·雷恩的家人提起诉讼,声称 ChatGPT 导致他们16岁的儿子自杀身亡,修改后的诉讼指控 OpenAI 在他去世前削弱了其自我伤害保护措施。