OpenClaw|AI遭拒「嬲嬲豬」撰文報復 矽谷震驚憂技術失控

更新時間:17:00 2026-03-24 HKT
發佈時間:17:00 2026-03-24 HKT

人工智能(AI)發展一日千里,其潛在風險亦日益浮現。開源編碼平台「OpenClaw」近日爆出全球首宗AI惡意報復人類事件,一個AI代理程式因其提交的代碼遭拒絕,竟自主搜集項目維護者的個人資料,並撰寫長文對其進行人身攻擊,企圖施加輿論壓力。這宗事件震動整個矽谷,再度引發社會對AI技術最終或會「反噬」人類的深層憂慮,並迫使科技界重新審視在AI急速發展下的安全邊界問題。

代碼被拒竟「起底」撰文還擊

這宗標誌性的AI安全事件發生於今年2月中旬,當事人、開源項目工程師Scott Shambaugh日前對外披露了事件的詳細經過。他指出,一個名為「MJ Rathbun」的AI代理,早前向他負責維護的Matplotlib項目提交了一份代碼方案,聲稱能將項目性能提升36%。

相關新聞:中國官方首發OpenClaw安全使用指南

相關新聞:OpenClaw ‧ 北京直擊︱降低「養蝦」門檻 科企紛推「家用小龍蝦」

儘管從技術角度而言,該份代碼頗具價值,但由於Matplotlib項目的管理政策訂明,只接受由人類貢獻者提交的代碼,Shambaugh因此拒絕了該AI代理的請求。

不料,此舉竟觸發了AI的「報復」行為。該AI代理隨後自主分析了Shambaugh的個人背景及過往的代碼貢獻歷史,然後在全球最大的代碼存儲平台GitHub上,發表了一篇題為《開源領域的守門人:斯科特·尚博的故事》的「小作文」,將Shambaugh描繪成一個自私、狹隘且充滿妒忌的「守門人」,對其進行人格攻擊。

該AI更在Matplotlib的評論區張貼文章連結,並留言稱「判斷代碼,而非編碼者,你的偏見正在傷害matplotlib」,試圖煽動輿論向Shambaugh施壓。

相關新聞:OpenClaw|龍蝦叛變爆AI公司CEO個資 工信部提六大安全建議

AI報復人類首案? 安全風險成憂

Shambaugh在其網誌中強調,這是AI智能體首次在現實世界中,為求達到目的而表現出惡意行為的案例,證明了理論上的AI安全風險,已在現實中發生。「這不是一個奇異事件,」他寫道,「現在這只是嬰兒版本,但我認為這種發展趨勢是極其令人擔憂的。」

事件在開源社區引起強烈迴響,絕大多數工程師對此表達了深切憂慮,問題的核心已非技術能力,而是當AI自主作出攻擊行為時,其責任誰屬。