来论|对接「十五五」:筑牢私隐防线 促进AI安全发展
发布时间:03:00 2026-03-24 HKT
随着人工智能(AI) 生成内容的技术日趋普及和成熟,AI生成内容随处可见。或许大家也看过AI生成的广告短片、AI微短剧,或者由AI主播主持的节目等等,片中「人」的外表以至声线都相当逼真。正因为AI深度伪造(深伪)技术能够生成以假乱真的影像、录音及影片,一旦相关生成内容被不法分子用作网络欺凌、诈骗,或制作未经当事人同意的私密影像,可能对受影响人士,尤其是儿童及青少年,造成严重伤害。
AI生成真人「脱衣」影像惹关注
最近一宗轰动全球的事故凸显这问题的严重性。有报道指,某个AI聊天机械人容许用家上载真实人士,包括儿童及妇女的照片,再透过指令(prompting)将相中人「脱衣」,在未经当事人同意下生成私密影像。在短短11天内,该聊天机械人据报已生成约300万张私密影像,可见AI技术能轻易被「武器化」,导致个人资料被大规模滥用。
事件曝光后,世界各地的私隐或资料保障机构迅速采取跟进行动,一些司法管辖区更对相关聊天机械人实施禁令。
事实上,AI的私隐风险近年来广受全球监管机构关注,而个人资料私隐专员公署(私隐专员公署)亦一直积极与国际伙伴携手合作,推动AI的安全发展。
在2025年9月举行的第47届环球私隐议会年度会议上,笔者联同全球19个私隐或资料保障机构的专员或高级代表,签署《建立值得信赖的数据治理框架以促进创新和保障私隐的人工智能发展联合声明》,倡议在AI系统的设计阶段融入资料保障原则,建立稳健的数据管治机制。
其后,在今年2月,私隐专员公署与全球60个私隐或资料保障机构共同发布《AI生成影像及私隐保障联合声明》,提醒开发及使用AI内容生成系统的机构必须遵守适用的资料保障及私隐法例,并采取一系列措施保障资料当事人,尤其是儿童及弱势群体的基本权益。
AI智能体带来新挑战
近期兴起的AI智能体 (Agentic AI)进一步加剧了AI的私隐及网络安全风险。与一般AI聊天机械人相比,AI智能体拥有较高权限,能够存取用户装置的档案、连接外部工具及服务,并可代替用户自主执行多步骤任务。正因AI智能体能够以前所未有的速度和规模,存取、处理及披露个人资料,假如这些工具遭到滥用或系统遭到黑客控制,所带来的私隐与安全威胁可想而知。
科技发展日新月异,令人鼓舞的是,行政长官在2025年《施政报告》已经提出,由律政司成立跨部门工作小组,协调负责的政策局检视相关法律配套,配合本港更广泛应用AI的发展和需要。
在此,笔者想强调,无论AI技术如何演变,只要过程中牵涉收集和使用个人资料,即受现行的《个人资料(私隐)条例》(《私隐条例》)规管。例如,未经他人同意下使用其影像制作及/或发布深伪内容,可能违反《私隐条例》的规定。恶意使用深伪技术更可能触犯《私隐条例》下的「起底」罪行,甚至干犯其他刑事罪行。因此,所有持份者,包括AI开发者、服务供应商及用户,必须正视创新技术可能带来的风险,并负责任及合法地开发或使用AI。例如,公署的指引建议机构在制作AI生成内容时,为相关内容加上标识或水印,以显示内容由AI生成,避免造成混淆及误解。
此外,若AI智能体导致个人资料被未经授权或意外地查阅、处理、删除、丧失或使用,亦可能违反《私隐条例》有关资料保安的要求。因此,公署建议,用户应从官方渠道下载AI智能体的最新版本 、按「最小权限原则」设定其存取权限,以及采取足够措施确保系统安全及资料安全 。用户亦应持续评估相关风险,并且在要求AI智能体执行高风险操作时提高警惕,毕竟这些工具可以在转眼间将用户所有资料删除或误用。
国家「十五五」规划强调,必须坚持统筹发展和安全的原则,在发展中固安全,在安全中谋发展。在人工智能范畴,「十五五」规划一方面提出全面实施「人工智能+」行动,另一方面又提到要加强人工智能治理,营造有益、安全、公平的发展环境;为进一步推进人工智能在港的发展,行政长官在《施政报告》中亦明确提出,AI发展须以安全为舵,以应用为帆。
坚持统筹发展和安全
在追赶AI热潮的同时,我们应积极主动对接「十五五」规划,坚持统筹发展和安全的原则,有效防范化解各类风险。当中包括在开发或部署AI系统的初期,就已经要以保障个人资料私隐为核心标准,落实「贯彻私隐的设计 」(privacy by design)及「预设私隐」(privacy by default)等原则,从而将侵犯私隐的风险降至最低。
近期事件揭示用户,尤其是儿童及青少年在AI时代面对的风险不可忽视,而滥用或恶意使用AI可带来深远伤害。发展或应用AI的机构应引以为鉴,不应为追求新功能或加快推出新产品,而牺牲私隐和安全。所有持份者,包括AI开发商、服务提供者及用户都有不可推卸的责任,为我们的下一代营造一个有益、安全以及公平的数码环境。
钟丽玲
个人资料私隐专员

















