新型詐騙|AI語音以假亂真 扮家屬求救呃贖金

更新時間:08:14 2023-06-13
發佈時間:07:00 2023-06-13

電話裏頭傳來的聲音聽來跟真的沒兩樣!住在美國亞利桑那州的德斯特凡諾(Jennifer DeStefano)聽到「女兒」啜泣求救,之後一名男子接過電話,要求100萬美元贖金。所幸她冷靜認對,沒有受騙。

德斯特凡諾說,她一般都不接不知明電話,但當時15歲的女兒去了滑雪,她怕有意外就接聽了那通可疑電話。「救我,媽,救我。」她聽到女兒啜泣的聲音。然後一名男子接過電話,要脅100萬美元贖金,不過她說沒錢,對方便「大減價」只要5萬美元。

德斯特凡諾讓對方保持通話。所幸她接電話時,身處於另一個女兒的舞蹈室,其他家長紛紛幫忙,報警和找她丈夫。在短短4分鐘內,她確認女兒安全無事,之後她便掛斷電話。

但她掛電話後,仍一直覺得電話裏的就是她女兒。「完全是她的聲音。抑掦頓挫,那就是她哭的方式。我沒有一秒懷疑那不是她。就是這個怪異的部分讓我陷入困境。」

電話傳來的女孩的聲音,原來是由人工智能(AI)合成,綁架當然也是假的。新型詐騙震撼美國當局,歹徒使用網路上垂手可得、幾可亂真的AI語音複製工具,假冒家庭成員來詐騙親人。

美國資訊安全公司McAfee Labs上月發布的民調顯示,在美國等9個國家針對7000人的民調中,1/4表示自己遇過AI語音詐騙,或聽過別人有類似經驗。70%受訪者表示,沒有信心能「分辨真假語音」。

有專家指出,AI最大的危險是模糊了真實和虛幻的界線,讓網路罪犯能有廉價又有效的技術來散播假訊息。

加州大學柏克萊分校資訊學院教授法里德(Hany Farid)告訴法新社:「因為現在製作高仿真的語音非常容易…網路上幾乎無人能倖免。這些詐騙正廣為流行。」

今年初AI新創公司ElevenLabs坦承自家語音合成工具可被用於「惡意用途」,先前就有用戶發布透過「深偽技術」(Deepfake)合成的語音,假冒英國女星愛瑪屈臣(Emma Watson)讀希特拉自傳《我的奮鬥》(Mein Kampf)。

---

《星島頭條》APP經已推出最新版本,請立即更新,瀏覽更精彩內容:https://bit.ly/3yLrgYZ