【慎防受骗】AI 的真与假

提起人工智能(AI),现今世代的 AI 应用相当广泛,例如前阵子很流行的 AI 自动生成背景,只要把自己的名字或是任一单词输入,就能自动生成一张电子绘画;也有是只要输入图片或是简单几笔的幼儿涂鸦,就可以选择自己喜欢的画风生成作品。最新的还有日本应用程式,可以输入同一个绘师的作品集,就能自动生成同一作画风格的图像,可见 AI 的学习能力真是非常快。
AI 除了在艺术创作方面受广泛应用外,也免不了被不法分子用作高科技犯罪的工具,当中深度伪造(Deepfake)就是一种 AI 技术的实际应用。除了以往 Cybersec Wednesday 所提及利用 AI 模仿声音去进行诈骗外,现在更能进阶生成虚假的视觉效果,例如近年讨论度居高不下的换脸技术。举例社交语音平台 Snapchat 也有特效,可以一键与朋友甚至明星换脸,虽然仔细看就能辨别真伪,但也反映出 AI 的运算能力可以在短时间内学习再复制使用。
犯罪分子当然不可能只拿 Deepfake 当娱乐用途,他们会利用这技术来伪造身份,包括使用资料库生成假图片、影片甚至是直播。在2019年,南加州大学副教授就尝试在 MIT 科技会议上即时使用 Deepfake 技术,在萤幕中变成俄罗斯总统普京的模样,可看出 Deepfake 的实时模仿应用已发展到一定程度。
在今年7月,FBI Internet Crime Complaint Center (IC3) 就列出了部份实际案例,指有些企业在聘请新员工时,会进行视像面试;骗徒会预先在网上偷取目标的真实资料,例如照片及工作履历等等,汇入资料库使用 Deepfake 技术实时模拟出受害者的长相及声音参加视像面试。类似案件大部份以 IT 部门的职位为主,乃由于他们可以获得权限去管理公司的资料库及系统,骗徒在成功盗取机密资料后可以全身而退,而受骗公司则损失惨重。
以上例子主要是靠人眼识别是否 Deepfake 伪造出来的画面,那如果是透过机械去识别呢?
网络安全机构公司 Sensity 早前发表报告,对市面上十间主要用于银行服务的生物识别认证系统供应商的产品进行漏洞检测,发现其中九间公司都未能成功辨识出使用 Deepfake 技术生成的假图像,继而成功欺骗系统并通过测试。
总结以上例子,Deepfake 技术可能在不经意的地方出现让大家蒙受损失,因此要特别留意以下几点:
- 在线上会议进行时,不论视像会议或是语音通话,应小心确认对方的资讯是否属实。
- 在传送重要资料例如帐户密码或给予系统使权限时,应多方面认证身份的真实性,例如以电邮及电话再三确认。
- 不要轻易相信网上「名人」或「权威人士」给予的建议,在正常情况下公众人士甚少私下接触观众或粉丝,因此如果遇到类似情况都是诈骗的居多。
现在遥距工作逐渐普及,资讯传播速度飞快,电子诈骗的形式也愈来愈多样化。不论何时我们都应该小心翼翼保持警惕,才能避免堕入不法分子的陷阱。
网络安全在很多方面还需要注意,如有任何疑问欢迎加入我们的 Cybersec Infohub 计划,让行业里的网络安全专家为您解决,如果您怀疑自己或公司的电脑被骇或有可疑的行为,亦请尽快联络网络安全专家求助。


















