钟丽玲:私隐公署有足够权力介入AI事故 但非「吓吓要咬人」

更新时间:11:24 2025-04-06 HKT
发布时间:11:24 2025-04-06 HKT

【私隐公署/AI/人工智能/生成式AI】私隐专员公署上月底发表《雇员使用生成式AI的指引清单》。个人资料私隐专员钟丽玲表示,公署正与生产力局研究,合办数据安全研讨会,以及考虑制订样本,帮助业界了解如何让机构安全地使用AI工具,减少资料外泄。

钟丽玲今早在商台节目表示,现时生成式AI十分普及,但雇主未必知道员工的使用方式,期望清单协助企业制定内部政策,让员工能更安全使用,释放AI最大威力。她再提醒有关机构输入顾客资料,会受私隐条例规管,如果涉及改变用途目的,需要取得客户同意。

指引涵盖五大范畴 可考虑助机构制作AI内部政策范本

钟丽玲指,若机构使用会员资料训练AI工具,私隐条例列明须就改变资料使用目的,亦需取得顾客明确及自愿同意。是次指引涵盖五大范畴,分别是使用AI的范围、保障个人资料私隐、要合法和合乎道德使用避免偏见、数据安全,及违反指引的后果。她形容雇主可以「执药咁执」,按各范畴了解甚么资料可以输入,制订适合的内部政策。

她又表示,指引推出数日后,有业界反映希望公署制作内部政策的样本,署方会考虑制订样本予机构参考,而公署设有AI安全热线,让企业查询问题,亦有度身订造的培训课程,亦会同生产力促进局6月将举办AI安全研讨会,帮助业界了解如何让机构安全地使用AI工具。

对于AI风险方面,钟丽玲称,最主要是关注个人资料私隐风险,尤其是资料的使用,例如员工将收集到的客户资料悄悄用于训练AI;其次是员工输入一些公司不允许的敏感机密资料;以及关注资料外泄的问题,因为训练AI通常需要大量数据,如果发生外泄事故,后果可以相当严重。

相关新闻:私隐公署发布《雇员使用生成式AI指引清单》 订明不得利用AI进行非法或有害活动 有责任核实生成结果准确性

公署有权力介入AI合规使用 「唔好当我哋系咬人嘅老虎」

至于公署的权力是否足够介入AI人工智能的合规使用,钟丽玲指,公署绝对有权力,若收到资料外涉事故,会发表报告及公开谴责机构,及发出执行通知,若机构违反执行通知,会是刑事罪行。另外公署每年也会主动做循规审查,每年大概做400宗,收到约200多宗数据安全投诉,公署会进行调解及调查的工作。并非是发生事件后才去跟进,最好是未发生事件前就去预防 ,所以公署都有检视的机制。她希望市民大众「不要成日当我哋系老虎,唔系吓吓要咬人,很多时候我哋都会做很多教育、推广的工作。」

钟丽玲又指出,2021年修订私隐条例以来,3年间成效很好,网络上起底的信息对比2022年大跌超过九成,处理有关起底的投诉方面,也大跌超过四成。但在数码时代,资料外泄的事故明显增加,网上罪案或资料外泄,都会有上升的趋势,这是全球都面对的问题,公署会多做宣传教育工作,提升市民大众的意识。对于资料外泄事故,她表示希望进一步修订私隐条例,制订强制性的通报机制 ,令执法更有效。公署现正与政府全盘审视整条私隐条例,加强规管资料处理,希望可以加入行政罚款的机制,但罚则是中小企能负担而又具阻吓的作用。