AI導致企業損失屢見不鮮|林小珍

更新時間:09:42 2025-12-09 HKT
發佈時間:09:42 2025-12-09 HKT

我們買醫療保險最怕聽到「不保事項」,其實企業亦然。之前保險業界有一則頗有趣的新聞,英國《金融時報》報道,有數家大型保險公司向監管機構申請,將企業應用人工智能(AI),包括虛擬客戶服務員等,所產生的風險列為不保事項。這有機會令企業在業務過程中採用AI的態度變得較為審慎。

企業靠保險降低業務風險

保險公司一直有為商業客戶提供「產品責任保險」,承保企業因為產品存在陷阱,造成消費者或使用者的人身傷害或財產損失的風險,包括因而衍生的賠償開支,甚至是產品回收費用等。而對於服務業企業和專業人士,保險公司亦有提供「專業責任保險」,承保因為專業失當、侵權和僱員欺詐行為等衍生的風險。這些類別的產品,都是為了防止企業因為經營過程中的單一失誤,導致巨額損失而要倒閉。

保險業亦有因應科技發展,推出新產品回應商業客戶的需求。網絡保險都是近年新興的產品,針對個人和商業資料外洩、駭客入侵、電腦病毒、系統失靈和業務中斷等情況,好讓企業可以更安心在經營過程中採用新科技。例如早前連鎖餐飲集團太興(6811)懷疑遭受網絡攻擊,流動應用程式無法正常運作,客戶無法使用電子現金券,都有可能納入保障範圍。

保險公司申AI運作為不保事項

雖然保險公司不斷推陳出新,希望「做大個餅」,但進入AI世代,保險公司亦擔心開始招架不住。根據《金融時報》,美國國際集團(AIG)、Great American和WR柏克萊(WR Berkley)近期向美國監管機構申請,將企業在生產和服務過程中應用AI衍生的責任,排除於保障範圍之外,包括企業使用AI聊天機器人與AI代理等的相關責任。AIG回覆記者查詢時,確認提出了有關AI的不保條款,但現時未有計劃落實執行,Great American和WR柏克萊就未有回應。

歐洲大型保險公司Mosaic的網絡保險專家指,客戶採用人工智能模型,對保險公司來說不可預測性太高,而且不透明,猶如在黑盒內運作,保險公司難以計算風險。他們公司亦拒絕承保由包括ChatGPT等大型語言模型(LLM)所衍生的風險。

AI導致企業損失屢見不鮮

AI出錯導致企業財務及業務損失,其實可大可小。小的例如去年加拿大航空的AI客戶服務聊天機械人,向客戶提供了根本不存在的機票優惠;大的有太陽能科技企業Wolf River Electric因為AI工具提供的文件總結出錯,而被明尼蘇達州總檢察長辦公室提告,Wolf River Electric亦向提供AI工具的Google提告,追討1.1億美元的損失。

不能靠單薄人手把關

企業應用AI越來越廣泛,由客戶服務、撰寫合約、專業繪圖以至醫療診斷,無疑是大大提升了運作效率,但出錯的地方亦可能令人意想不到。科技業界強調應用AI時,有一個重要原則是「人類參與循環」(Human-In-The-Loop,HITL),即是過程中要維持一定人手參與,但具體需要幾多,並無計算準則。可以預視企業因為AI而大幅縮減人手,餘下人員美其名是擔當把關的角色,但如果AI的生產量遠高於人員可以仔細檢視的,掛一漏萬根本不足為奇。屆時不能向AI問責,就向僅餘的人員問責,工資猶如安家費,準備隨時為AI「揹鑊」。

當「算死草」的保險公司都不肯承保AI的風險,企業管理層都應該面對現實,不要時時神化AI,以為有AI就不需要同事。AI出事時,就算辭退同事「祭旗」,面對客戶追討或法律責任,加上沒有保險產品保障,企業和管理層本身都難以獨善其身。

林小珍