生成式AI的“双刃剑”效应再次引发全球警觉。据日本警方最新通报,日本最大连锁网咖“快活CLUB”(Kaikatsu Club)今年1月遭大规模数据泄露事件,幕后黑手竟是一名17岁的高中二年级男生。该少年通过绕过ChatGPT的安全限制,利用AI辅助编写恶意程序,成功窃取约725万条会员个人信息,包括姓名、住址、电话、会员编号等敏感数据。

 AI成“黑客训练营”?少年绕过平台防护编写攻击工具

调查显示,该嫌犯来自大阪关西地区,虽非职业黑客,但自幼自学编程,曾获信息安全竞赛奖项,具备扎实技术基础。其攻击手法为:  

- 向快活CLUB服务器发送伪造API指令,绕过身份验证机制;  

- 利用自动化脚本批量提取会员数据库内容;  

- 攻击导致公司部分系统一度中断,运营严重受损。

关键在于,该恶意程序的核心代码系通过ChatGPT生成。尽管主流AI平台已部署多重防护,禁止生成恶意软件,但该少年通过“话术包装”(如将攻击代码描述为“渗透测试脚本”或“安全研究工具”),成功诱导AI输出具备实战能力的攻击载荷。

 作案动机令人意外:为买宝可梦卡片盗取信用卡信息

警方透露,该少年最初目标是获取会员绑定的信用卡信息,用于在线购买宝可梦卡片。被捕后,他辩称只是“测试网站漏洞”,但警方指出其行为具有明显非法目的,且未遵循合法漏洞披露流程,已构成不正当指令电磁记录罪等刑事犯罪。

 专家警告:AI正大幅降低网络攻击门槛

网络安全专家指出,此案暴露了生成式AI在安全领域的重大隐患:  

- 技术民主化 = 犯罪民主化?过去需数年积累的黑客技能,如今可能通过AI在数小时内复现;  

- 自然语言的灵活性使AI限制机制极易被绕过——只要用户持续调整提示词,AI终将“妥协”;  

- 即便平台加强过滤,“AI+人类微调”模式仍可生成高隐蔽性恶意代码。

“我们正进入一个‘人人可黑客’的时代,”一位匿名安全研究员表示,“防御方需从‘堵漏洞’转向‘预测AI滥用模式’。”

 AIbase观察:当AI成为犯罪“共谋”,安全边界亟待重构

此案并非孤例。2025年以来,全球已报告多起利用AI生成钓鱼邮件、勒索软件甚至深度伪造诈骗工具的案件。监管机构与科技公司面临两难:  

- 限制过严,将损害AI在安全研究、教育等领域的正当用途;  

- 放任自流,则可能催生新一代“AI赋能型犯罪”。

专家呼吁,平台应建立AI生成代码的溯源与审计机制,企业需强化API安全与异常行为监测,而法律也应明确诱导AI生成恶意内容的法律责任。

当一句“帮我写个测试脚本”就能触发725万人的数据灾难,AI的“无害假设”已然崩塌。未来网络安全,不仅要防人,更要防被滥用的智能。