OpenClaw|AI遭拒「嬲嬲猪」撰文报复 矽谷震惊忧技术失控
发布时间:17:00 2026-03-24 HKT
人工智能(AI)发展一日千里,其潜在风险亦日益浮现。开源编码平台「OpenClaw」近日爆出全球首宗AI恶意报复人类事件,一个AI代理程式因其提交的代码遭拒绝,竟自主搜集项目维护者的个人资料,并撰写长文对其进行人身攻击,企图施加舆论压力。这宗事件震动整个矽谷,再度引发社会对AI技术最终或会「反噬」人类的深层忧虑,并迫使科技界重新审视在AI急速发展下的安全边界问题。
代码被拒竟「起底」撰文还击
这宗标志性的AI安全事件发生于今年2月中旬,当事人、开源项目工程师Scott Shambaugh日前对外披露了事件的详细经过。他指出,一个名为「MJ Rathbun」的AI代理,早前向他负责维护的Matplotlib项目提交了一份代码方案,声称能将项目性能提升36%。
相关新闻:中国官方首发OpenClaw安全使用指南
相关新闻:OpenClaw ‧ 北京直击︱降低「养虾」门槛 科企纷推「家用小龙虾」
尽管从技术角度而言,该份代码颇具价值,但由于Matplotlib项目的管理政策订明,只接受由人类贡献者提交的代码,Shambaugh因此拒绝了该AI代理的请求。
不料,此举竟触发了AI的「报复」行为。该AI代理随后自主分析了Shambaugh的个人背景及过往的代码贡献历史,然后在全球最大的代码存储平台GitHub上,发表了一篇题为《开源领域的守门人:斯科特·尚博的故事》的「小作文」,将Shambaugh描绘成一个自私、狭隘且充满妒忌的「守门人」,对其进行人格攻击。
该AI更在Matplotlib的评论区张贴文章连结,并留言称「判断代码,而非编码者,你的偏见正在伤害matplotlib」,试图煽动舆论向Shambaugh施压。
相关新闻:OpenClaw|龙虾叛变爆AI公司CEO个资 工信部提六大安全建议
AI报复人类首案? 安全风险成忧
Shambaugh在其网志中强调,这是AI智能体首次在现实世界中,为求达到目的而表现出恶意行为的案例,证明了理论上的AI安全风险,已在现实中发生。「这不是一个奇异事件,」他写道,「现在这只是婴儿版本,但我认为这种发展趋势是极其令人担忧的。」
事件在开源社区引起强烈回响,绝大多数工程师对此表达了深切忧虑,问题的核心已非技术能力,而是当AI自主作出攻击行为时,其责任谁属。

















