南韓實施「AI基本法」 打擊濫用人工智能

更新時間:15:28 2026-01-22 HKT
發佈時間:15:28 2026-01-22 HKT

南韓周四(22日)正式實施指引如何使用人工智能(AI)的法律《關於人工智能發展和構建信賴基礎的基本法》(簡稱「AI基本法」),定義何謂高風險AI和生成式AI,防止誤用或濫用AI導致的風險。

韓聯社報道,南韓「AI基本法」旨在支援國家推動AI行業健康發展,並防範AI產生弊端。法律規定,政府尊重AI技術與服務提供商的創意精神,也支援企業研發相關產品和服務。

相關新聞:英擬仿效澳洲 禁兒童使用社交媒體

不過,南韓政府藉「AI基本法」盡可能降低AI對國民生活產生的潛在風險,並制定安全使用規範,亦為確保安全和可靠使用AI,支援技術研發、宣傳和教育工作。

「AI基本法」還規定AI技術和運作原理須讓外界明白。

相關新聞:AI造假?︱內地高露潔被指偽造美白效果 博主舉報即下架影片

南韓嚴防濫用AI。(路透社)
南韓嚴防濫用AI。(路透社)

打擊AI生成式廣告

報道又引述《AI基本法》中內容,指明「高影響力AI」等同「高風險AI」。法律規定AI技術與服務提供商提供或利用生成式AI產品或服務時,須預先告知用戶產品或服務基於相關技術運作。

相關新聞:馬斯克Grok爆AI不雅照爭議 X平台推新措施「補鑊」

法律又要求業界製作廣告時須標註使用AI技術,遏制社交媒體上出現大量虛假廣告,不少廣告利用虛假專家或深度偽造(deep-faked)的名人來代言食品或藥品促銷。

若AI業界違反告知義務、境外提供商利用AI時未指定南韓國內代理人時,最高可罰款3000萬韓元(約16萬港元)。不過,政府避免新生產業發展受阻,對違規行為的處罰設一年暫緩期。

北韓黑客利用AI攻擊南韓

南韓早已防範AI遭濫用,除打擊AI深偽生成式廣告外,南韓也嚴防北韓利用AI影響國家安全。南韓國家情報院指,2023年黑客利用AI攻擊事件達平均每日162萬宗,其中約八成由北韓策劃。