「AI龍蝦」爆紅:當AI開始控制你的電腦|梁偉聰
發佈時間:17:35 2026-03-11 HKT
最近「AI龍蝦」在全球科技圈爆紅。真正吸引人的,其實不是它的名字,而是它所代表的一種全新AI形態——AI Agent。就像《Iron Man》中的AI助手Jarvis一樣,用戶只需一句指令,AI便可以替你完成一連串操作,從整理文件、處理電郵,到遠端操作電腦系統。這種「解放雙手」的科技想像,正逐漸變成現實。然而,在享受便利之餘,我們也必須先理解背後可能帶來的風險。
過去幾年,AI的發展速度極快。對不少人而言,與AI一問一答已經成為日常生活的一部分。從以前「逢事問Google」,變成現在「逢事問AI」。AI幾乎無所不知,不但能提供答案,更可以一步一步教人如何解決問題,成為很多人處理資訊的第一工具。
所謂「AI龍蝦」,其實是指OpenClaw,一款開源、本地優先的AI Agent智能體框架。簡單來說,它就是現實版的Jarvis。AI不再只是回答問題,而是可以執行指令、整理檔案、處理電郵,甚至遠端操作你的系統。即使沒有電腦背景的用戶,也能透過簡單指令完成過去需要技術人員處理的工作。
隨着這類技術出現,中國近期亦出現所謂「養AI龍蝦」的熱潮。深圳龍崗區更推出扶持措施「龍蝦十條」,包括提供免費部署補貼、三個月算力資源、大模型調用費三成補貼、最高千萬元人民幣的股權投資,以及AI工具開發與應用獎勵等,希望吸引更多企業發展AI Agent技術。
然而,在熱潮背後,我們不能忽略一個最根本的問題:AI Agent的權限。
與一般聊天型AI不同,這類智能體往往需要讀取、調用甚至修改電腦中的資料與系統設定。一旦系統出現漏洞,潛在風險將遠高於普通AI工具。
AI資安事故其實早已出現。OpenAI在2023年曾公開承認,ChatGPT因Redis開源套件漏洞,導致部分用戶在對話介面中看到其他用戶的聊天記錄標題,甚至在極少數情況下,付費用戶的信用卡資料後四碼、電郵及付款地址被錯誤顯示。
如果一個只負責生成文字的AI,都可能因為系統漏洞而洩露敏感資料,那麼一個可以控制整部電腦的AI Agent,又怎能假設它永遠不會出錯?甚至不會成為黑客攻擊的目標?
更值得注意的是,這類系統往往會與支付工具或身份系統產生更深層的連結。例如在內地,不少AI應用需要與微信支付、支付寶甚至電子身份系統綁定。便利背後,也意味著更高層次的風險。
一旦發生資安事故,問題可能不只是資料外洩。若黑客能透過系統漏洞控制電子錢包,即使金額不大,也可能導致帳戶被凍結。對於高度依賴電子支付的用戶而言,甚至可能連日常出門、用餐都受到影響。
企業使用這類工具時風險更高。以筆者的行業為例,港股市場過去亦曾出現公關公司因採用自家開發的新應用程式,而意外提前洩露客戶財務資料,導致公司在公布業績前出現異常股價波動。
新技術帶來便利本來是好事,但在仍屬實驗階段的今天,我們亦必須承認,這些AI工具的權限往往遠超一般應用程式。
在眾多防範方法之中,最務實的一個做法,或許是先準備一部獨立電腦專門測試這類新技術。將AI Agent與日常工作系統完全分開,不僅可以降低資料外洩風險,也能避免AI誤操作重要文件或系統設定。
科技進步從來無法停止,但在真正把「Jarvis」帶進生活之前,我們或許需要先學會如何與它保持一點安全距離。
梁偉聰-企業傳訊及財經公關顧問
🔗LinkedIn: https://bit.ly/3ClurwJ
🔗Facebook: https://www.facebook.com/lwcken/

















