張家輝 - 大模型答案實啱? | Alex聊AI

  現時大部分內地同事及朋友們均「手執」至少有兩個以上的AI App,甚或在需要搜尋資料時已直接向AI提問,逐漸取代搜尋器。社會對AI的依賴程度突飛猛進,但AI給出答案一定可信嗎?

  事實上,大語言模型的資料來源與一般搜尋引擎查詢到的內容差不多,絕大多數資料是來自網絡上的公開訊息,並主要由系統自動擷取。在這個過程中,AI不會進行太多分辨資料真偽。因此,所有AI公司也會在使用者協定裏註明以此產生的權責。

  這就延伸出兩個問題,包括若希望AI生成符合預期的答案,就需要定向給AI投放受控制的資料,以確保最後得出的答案具有可信度。

  此外,AI大模型的資料標註等上游產業較少市場關注,但這行業目前仍需要依靠人力,為每一個資訊打上標籤,以供AI進行識別訓練;譬如AI初始時,無法感知一輛車是一輛車,只有在人手於一輛車的圖片上標註「車」,AI才能進行識別。當資料累積至一定程度時,AI便能自行識別。

  總括而言,AI在產出答案時,會熟練得像一個富有經驗的學者,其邏輯分析慎密清晰。然而,現階段AI獲取和訓練仍然相對原始,所產出的答案被左右的機率也相對提高,相關資料的可信度目前還需要使用者自行判斷,不應盲目完全相信。

INTL GENIUS
行政總裁
張家輝

更多文章