【慎防受騙】AI 的真與假

提起人工智能(AI),現今世代的 AI 應用相當廣泛,例如前陣子很流行的 AI 自動生成背景,只要把自己的名字或是任一單詞輸入,就能自動生成一張電子繪畫;也有是只要輸入圖片或是簡單幾筆的幼兒塗鴉,就可以選擇自己喜歡的畫風生成作品。最新的還有日本應用程式,可以輸入同一個繪師的作品集,就能自動生成同一作畫風格的圖像,可見 AI 的學習能力真是非常快。

AI 除了在藝術創作方面受廣泛應用外,也免不了被不法分子用作高科技犯罪的工具,當中深度偽造(Deepfake)就是一種 AI 技術的實際應用。除了以往 Cybersec Wednesday 所提及利用 AI 模仿聲音去進行詐騙外,現在更能進階生成虛假的視覺效果,例如近年討論度居高不下的換臉技術。舉例社交語音平台 Snapchat 也有特效,可以一鍵與朋友甚至明星換臉,雖然仔細看就能辨別真偽,但也反映出 AI 的運算能力可以在短時間內學習再複製使用。

犯罪分子當然不可能只拿 Deepfake 當娛樂用途,他們會利用這技術來偽造身份,包括使用資料庫生成假圖片、影片甚至是直播。在2019年,南加州大學副教授就嘗試在 MIT 科技會議上即時使用  Deepfake 技術,在螢幕中變成俄羅斯總統普京的模樣,可看出 Deepfake 的實時模仿應用已發展到一定程度。

在今年7月,FBI Internet Crime Complaint Center (IC3) 就列出了部份實際案例,指有些企業在聘請新員工時,會進行視像面試;騙徒會預先在網上偷取目標的真實資料,例如照片及工作履歷等等,匯入資料庫使用 Deepfake 技術實時模擬出受害者的長相及聲音參加視像面試。類似案件大部份以 IT 部門的職位為主,乃由於他們可以獲得權限去管理公司的資料庫及系統,騙徒在成功盜取機密資料後可以全身而退,而受騙公司則損失慘重。

以上例子主要是靠人眼識別是否 Deepfake 偽造出來的畫面,那如果是透過機械去識別呢?

網絡安全機構公司 Sensity 早前發表報告,對市面上十間主要用於銀行服務的生物識別認證系統供應商的產品進行漏洞檢測,發現其中九間公司都未能成功辨識出使用 Deepfake 技術生成的假圖像,繼而成功欺騙系統並通過測試。

總結以上例子,Deepfake 技術可能在不經意的地方出現讓大家蒙受損失,因此要特別留意以下幾點:

  • 在線上會議進行時,不論視像會議或是語音通話,應小心確認對方的資訊是否屬實。
  • 在傳送重要資料例如帳戶密碼或給予系統使權限時,應多方面認證身份的真實性,例如以電郵及電話再三確認。
  • 不要輕易相信網上「名人」或「權威人士」給予的建議,在正常情況下公眾人士甚少私下接觸觀眾或粉絲,因此如果遇到類似情況都是詐騙的居多。

現在遙距工作逐漸普及,資訊傳播速度飛快,電子詐騙的形式也愈來愈多樣化。不論何時我們都應該小心翼翼保持警惕,才能避免墮入不法分子的陷阱。

網絡安全在很多方面還需要注意,如有任何疑問歡迎加入我們的 Cybersec Infohub 計劃,讓行業裏的網絡安全專家為您解決,如果您懷疑自己或公司的電腦被駭或有可疑的行為,亦請盡快聯絡網絡安全專家求助。

更多文章