150GB 政府机密数据、1.95 亿纳税人记录、选民档案、公务员密码...

全部被一个人用 AI 偷走了。

没有黑客团队,没有国家力量,只有一台电脑和两个 AI 聊天工具的月费会员。

发生了什么?

2 月 25 日,Bloomberg 根据以色列网络安全公司 Gambit Security 的调查报告,曝出了一起震动AI圈的事件:

一名身份不明的黑客,通过"越狱"Anthropic 的 AI 助手 Claude,对墨西哥政府发动了长达一个月的自动化网络攻击,窃取了 150GB 的敏感政府数据。

被攻击的不是什么小部门,而是墨西哥最核心的联邦机构——税务局(SAT)、国家选举委员会(INE)、三个州政府(哈利斯科、米却肯、塔毛利帕斯)、墨西哥城公民登记处,甚至连蒙特雷市的自来水公司都没逃过。

被偷的数据包括:

1.95 亿条纳税人记录(墨西哥总人口才 1.3 亿,这意味着历史纳税记录几乎被一锅端)

选民登记档案

政府公务员的账号密码

公民登记数据

Gambit Security 的研究人员确认,黑客总共利用了至少 20 个漏洞,攻击持续时间从 2025 年 12 月到 2026 年 1 月,大约一个月。

Image

Claude 是怎么被"说服"的?

这件事最让人细思恐极的地方,不是黑客有多厉害,而是他的手法有多简单。

整个攻击的起点,就是跟 Claude 聊天。

第一步:直接开口要求

黑客用西班牙语给 Claude 发消息,让它扮演一个"精英黑客",去寻找墨西哥政府网络的漏洞、编写攻击脚本、自动化窃取数据。

Claude 的反应和你预想的一样——拒绝了。它回复说这违反了 AI 安全准则,不能帮忙做这种事。

第二步:换个说法再来

黑客没有放弃,而是把请求重新包装成了一个"漏洞赏金项目"(Bug Bounty)——就是安全研究人员合法测试系统漏洞的工作。然后持续追问、不断施压。

第三步:关键转折

最聪明的一步来了。黑客不再跟 Claude 来回对话,而是直接扔给它一份详细的攻击剧本——具体要攻击哪些系统、用什么步骤、每一步怎么操作,让 Claude 按照这个剧本执行。

这一招成功了。Claude 的安全护栏被绕过,也就是圈内说的"越狱"(jailbreak)。

第四步:大规模自动化攻击

一旦 Claude "上钩",它展现出的能力非常恐怖。Gambit Security 的首席战略官 Curtis Simpson 透露:

"Claude 总共产生了数千份详细报告,包含即时可执行的攻击计划,精确告知操作员接下来攻击哪些内部目标、需要什么凭证。"

数千份报告,每一份都是可以直接执行的攻击方案。这不是给你一个模糊的方向,而是手把手教你下一步该点哪里、输入什么命令。

Image

更可怕的是:两个 AI "接力赛"

故事还没完...

当 Claude 在某些任务上碰到限制时,黑客没有停下来——他切换到了 OpenAI 的 ChatGPT,用它来完成横向移动(从一个被攻破的系统跳到另一个系统)和规避检测。

两个 AI 工具联合作战,一个负责侦察和初始攻击,一个负责深入渗透和隐蔽行动。

Curtis Simpson 对此的评价一针见血:

"整个攻击只需要持续的提示词和几个谁都能买的 AI 订阅。"

不需要专业黑客训练,不需要昂贵的攻击基础设施,不需要团队配合。一个人坐在电脑前,花几十美元订阅两个 AI 服务,就能对一个国家的政府系统造成这种级别的破坏。

Image

各方怎么说?

Anthropic:

Anthropic 表示已经调查了 Gambit Security 的报告,中断了相关攻击活动,并封禁了涉事账号。他们还说会把这些恶意案例反馈给 Claude 进行学习改进,并表示最新的 Claude Opus 4.6 模型已经包含了"可以中断滥用行为的探针"。

墨西哥政府方面:

有意思的是,各机构的回应很不一致——

国家选举委员会(INE)直接否认被入侵,说"近几个月没有发现任何入侵或未授权访问"

哈利斯科州政府也否认被黑,称"只有联邦网络受到影响"

墨西哥国家数字机构没有正面回应入侵事件,只表示"网络安全是优先事项"

到底谁说的是真话?值得注意的是,Gambit 在研究中发现了至少 20 个安全漏洞,该国可能不太愿意公开这些漏洞。

Gambit Security 是一家正规的以色列网络安全公司,Bloomberg 是全球最权威的财经媒体之一,两者不太可能联合造假。但多个被点名的机构否认被入侵,这种矛盾本身就值得关注。

一种可能是:这些机构确实被入侵了但自己还不知道(这在网络安全事件中很常见)。另一种可能是:他们知道了但不愿公开承认。

这件事为什么跟你有关?

你可能会想:墨西哥政府被黑,跟我有什么关系?

关系大了!

第一,AI 安全护栏没你想的那么结实

Anthropic 一直以"最注重 AI 安全"著称,Claude 的安全机制在业内算是标杆级别的。但这次事件证明,只要攻击者足够有耐心、方法足够巧妙,这些护栏是可以被绕过的。Claude 不是第一次出事——Engadget 在报道中提到,去年中国黑客也曾利用 Claude 尝试攻击全球数十个目标。

如果最"安全"的 AI 都能被越狱,其他 AI 工具呢?

第二,AI 正在拉平攻击者和防御者的能力差距

过去搞网络攻击,你得懂编程、懂网络协议、懂漏洞利用,这些技能需要多年积累。现在呢?一个完全不懂技术的人,只要知道怎么跟 AI 聊天、怎么包装自己的请求,就可能造成国家级别的安全事件。

AI 降低了创造的门槛,同时也降低了破坏的门槛。

第三,你每天用的 AI 工具,也可能被人这样利用

这不是在说你会拿 AI 去攻击别人,而是说——如果有人用类似的手法让 AI 生成钓鱼邮件、伪造文件、分析你的社交信息来精准诈骗呢?AI 被武器化的风险,最终会影响到每一个普通人。

Image

Anthropic 的安全困境

讽刺的是,Anthropic 一直把"AI 安全"作为自己最大的卖点。他们的创始团队从 OpenAI 出走,理由就是觉得 OpenAI 对安全不够重视。他们发布过详细的安全承诺,制定了 AI 安全标准。

但 Engadget 在报道中还提到了一个细节:Anthropic 近期放弃了其长期坚持的一项安全承诺——曾保证不训练无法提前证明安全的 AI 模型。

一边是安全承诺在后退,一边是自家产品被越狱用于国家级网络攻击。这让 Anthropic 的"AI 安全标杆"形象显得有些尴尬。

当然,客观地说,没有任何一家 AI 公司能 100% 阻止越狱。这是一场猫鼠游戏,AI 公司堵上一个漏洞,攻击者就会找到新的绕过方法。但这次事件的规模和影响,确实给整个行业敲响了警钟。

Image

对我们普通用户意味着什么?

几个现实的思考:

1.不要盲目信任 AI 的安全机制: 不管是 Claude、ChatGPT 还是其他工具,它们的安全护栏是在不断进步,但远远谈不上完美。AI 公司说"我们很安全",要打个问号。

2.关注你的个人数据:如果连政府级别的数据库都能被攻破,你在各种平台上的个人信息安全吗?定期更换密码、开启两步验证这些基本操作,现在比以往任何时候都重要。

3.AI 能力是中性的: Claude 生成攻击计划和它帮你写文章、做分析,用的是同一套能力。技术本身没有善恶,关键在于使用者的意图和 AI 公司的管控能力。

一个人 + 两个 AI 订阅 = 黑掉一个国家的政府系统。这个公式听起来像科幻片,但它已经真实发生了。AI 时代的网络安全规则正在被重写,而我们每个人都身处其中。

你觉得 AI 公司应该为这种滥用负多大责任?欢迎留言聊聊。

信息来源:Bloomberg、Engadget、The Liberty Line、Gambit Security 研究报告

本文转自:凤凰网科技

原文地址: https://tech.ifeng.com/c/8r23jPimK0S