類腦AI來臨:突破或危機?|研之有理

更新時間:16:00 2025-12-19 HKT
發佈時間:16:00 2025-12-19 HKT

大語言模型(Large Language Model,以下簡稱「大模型」),顧名思義,是人工智能(AI)依賴大量的語言素材進行分析,再整合出來的計算模型。目前全球最先進的大模型,例如ChatGPT或DeepSeek,已經可以像人一樣生成自然語言,並和我們進行日常交談,給予我們意見,甚至是情緒支持。但這是否代表這些大模型已如同人一樣,擁有認知能力與社會價值觀?科學界對此仍存有爭議。

首先,大模型本身並不像人腦,有感覺、知覺、嗅覺、觸覺等,它的所謂「認知」只是與我們人類在語言交流時所表現出來的一種行為,而非真正意義上的認知能力(cognition)。

第二,大模型的背後是簡單的統計算法,例如基於大量語料中的統計規律預測下一個會出現的詞,而並非像人腦一樣在現實世界中隨機應變,視具體情況而調節身體動作、面部表情,以及相應的動機及目標。

第三,大模型從一開始就表現出許多偏見,甚至經常若有其事地胡編亂造事實,例如引用不存在的文獻。這是因為它在訓練期間接收的大量資料中存在種種語言及文化的偏差,當中包括不可靠或虛假的資訊,直接影響了它的精確性以至社會價值觀。最後,大模型並沒有真正意義上的人類情感,例如同理心或自發的驅動力及目標。

「世界模型」模擬人腦運作

當前AI技術不斷突破,最新發展聚焦在研發「世界模型」(World Models),即在AI內部建立對自然世界的抽象表徵,令AI能理解現實物理環境,從而擁有更貼近人類邏輯的思考及創造能力。最近宣布離開Meta、被視為「AI教父」之一的楊力昆,亦計劃創立研究「世界模型」的AI初創公司。人腦的「世界模型」基於我們與現實世界的互動,令我們閉上眼睛也能回味過去與想像未來的人和事,但AI終究不在現實世界中生存、變化,成長,亦沒有與父母或朋友實時互動,如何發展出真正意義上像人腦運作的大模型?

解決這個問題具有實際的意義。如果我們可以使大模型只依賴少量數據,就做到像人腦一般高效、快速,這將是引領未來的重大科技突破。但解決這個問題需要AI專家長時間地與人文、社會及腦科學學者進行跨學科合作。腦科學專家需要研究人腦的結構與功能,人文、社會學者需要研究人類兒童社會價值的形成,並將這些知識告訴AI專家,一起探討如何建構類腦的大模型,讓它能模擬在現實社會中生存、學習及互動,並發展出獨立思考與自主運動能力。

不過,假如有一天真的出現了擁有「人腦」的大模型,我們必須面對相應的挑戰及社會問題,特別是人類一旦過度依賴大模型,有機會失去自身應有的認知能力。

圖片來源:法新社
圖片來源:法新社

過度依賴AI或削弱大腦能力

舉例說,當大模型能隨時隨地幫我們自動翻譯各種語言,人類或許不再需要學習外國語言,我們人類的大腦或將會失去能夠自動切換多種語言的能力。已有研究表明,長期自動切換多種語言令人類大腦有了更多認知靈活性,可能有助於延遲老年癡呆症。

再說,如果類腦大模型驅動下的機械人真的開始有了自我動機及目的,並且這目的與人類的目的有偏差,它將會作出反人類的行為,機械人計劃毀滅人類或不再只是科幻電影中的橋段。

那或許該仔細思考的問題是,我們真的需要完全超人的大模型嗎?

本欄歡迎院校學者投稿,分享個人學術見解及研究成果,1400字為限,查詢及投稿請電郵︰[email protected]

文:香港理工大學冼為堅基金人文與科技講座教授、人文學院院長兼理大杭州技術創新研究院副院長 李平

延伸閱讀:

創新睪酮研究 開拓情緒及行為治療新方向|研之有理

智能電網:迎接未來能源新挑戰|研之有理

創新太極跑 以運動科技提升身心健康|研之有理