「AI龙虾」爆红:当AI开始控制你的电脑|梁伟聪

更新时间:17:35 2026-03-11 HKT
发布时间:17:35 2026-03-11 HKT

最近「AI龙虾」在全球科技圈爆红。真正吸引人的,其实不是它的名字,而是它所代表的一种全新AI形态——AI Agent。就像《Iron Man》中的AI助手Jarvis一样,用户只需一句指令,AI便可以替你完成一连串操作,从整理文件、处理电邮,到远端操作电脑系统。这种「解放双手」的科技想像,正逐渐变成现实。然而,在享受便利之余,我们也必须先理解背后可能带来的风险。

过去几年,AI的发展速度极快。对不少人而言,与AI一问一答已经成为日常生活的一部分。从以前「逢事问Google」,变成现在「逢事问AI」。AI几乎无所不知,不但能提供答案,更可以一步一步教人如何解决问题,成为很多人处理资讯的第一工具。

所谓「AI龙虾」,其实是指OpenClaw,一款开源、本地优先的AI Agent智能体框架。简单来说,它就是现实版的Jarvis。AI不再只是回答问题,而是可以执行指令、整理档案、处理电邮,甚至远端操作你的系统。即使没有电脑背景的用户,也能透过简单指令完成过去需要技术人员处理的工作。

随着这类技术出现,中国近期亦出现所谓「养AI龙虾」的热潮。深圳龙岗区更推出扶持措施「龙虾十条」,包括提供免费部署补贴、三个月算力资源、大模型调用费三成补贴、最高千万元人民币的股权投资,以及AI工具开发与应用奖励等,希望吸引更多企业发展AI Agent技术。

然而,在热潮背后,我们不能忽略一个最根本的问题:AI Agent的权限。

与一般聊天型AI不同,这类智能体往往需要读取、调用甚至修改电脑中的资料与系统设定。一旦系统出现漏洞,潜在风险将远高于普通AI工具。

AI资安事故其实早已出现。OpenAI在2023年曾公开承认,ChatGPT因Redis开源套件漏洞,导致部分用户在对话介面中看到其他用户的聊天记录标题,甚至在极少数情况下,付费用户的信用卡资料后四码、电邮及付款地址被错误显示。

如果一个只负责生成文字的AI,都可能因为系统漏洞而泄露敏感资料,那么一个可以控制整部电脑的AI Agent,又怎能假设它永远不会出错?甚至不会成为黑客攻击的目标?

更值得注意的是,这类系统往往会与支付工具或身份系统产生更深层的连结。例如在内地,不少AI应用需要与微信支付、支付宝甚至电子身份系统绑定。便利背后,也意味著更高层次的风险。

一旦发生资安事故,问题可能不只是资料外泄。若黑客能透过系统漏洞控制电子钱包,即使金额不大,也可能导致帐户被冻结。对于高度依赖电子支付的用户而言,甚至可能连日常出门、用餐都受到影响。

企业使用这类工具时风险更高。以笔者的行业为例,港股市场过去亦曾出现公关公司因采用自家开发的新应用程式,而意外提前泄露客户财务资料,导致公司在公布业绩前出现异常股价波动。

新技术带来便利本来是好事,但在仍属实验阶段的今天,我们亦必须承认,这些AI工具的权限往往远超一般应用程式。

在众多防范方法之中,最务实的一个做法,或许是先准备一部独立电脑专门测试这类新技术。将AI Agent与日常工作系统完全分开,不仅可以降低资料外泄风险,也能避免AI误操作重要文件或系统设定。

科技进步从来无法停止,但在真正把「Jarvis」带进生活之前,我们或许需要先学会如何与它保持一点安全距离。

梁伟聪-企业传讯及财经公关顾问

🔗LinkedIn: https://bit.ly/3ClurwJ
🔗Facebook: https://www.facebook.com/lwcken/