类脑AI来临:突破或危机?|研之有理

更新时间:16:00 2025-12-19 HKT
发布时间:16:00 2025-12-19 HKT

大语言模型(Large Language Model,以下简称「大模型」),顾名思义,是人工智能(AI)依赖大量的语言素材进行分析,再整合出来的计算模型。目前全球最先进的大模型,例如ChatGPT或DeepSeek,已经可以像人一样生成自然语言,并和我们进行日常交谈,给予我们意见,甚至是情绪支持。但这是否代表这些大模型已如同人一样,拥有认知能力与社会价值观?科学界对此仍存有争议。

首先,大模型本身并不像人脑,有感觉、知觉、嗅觉、触觉等,它的所谓「认知」只是与我们人类在语言交流时所表现出来的一种行为,而非真正意义上的认知能力(cognition)。

第二,大模型的背后是简单的统计算法,例如基于大量语料中的统计规律预测下一个会出现的词,而并非像人脑一样在现实世界中随机应变,视具体情况而调节身体动作、面部表情,以及相应的动机及目标。

第三,大模型从一开始就表现出许多偏见,甚至经常若有其事地胡编乱造事实,例如引用不存在的文献。这是因为它在训练期间接收的大量资料中存在种种语言及文化的偏差,当中包括不可靠或虚假的资讯,直接影响了它的精确性以至社会价值观。最后,大模型并没有真正意义上的人类情感,例如同理心或自发的驱动力及目标。

「世界模型」模拟人脑运作

当前AI技术不断突破,最新发展聚焦在研发「世界模型」(World Models),即在AI内部建立对自然世界的抽象表征,令AI能理解现实物理环境,从而拥有更贴近人类逻辑的思考及创造能力。最近宣布离开Meta、被视为「AI教父」之一的杨力昆,亦计划创立研究「世界模型」的AI初创公司。人脑的「世界模型」基于我们与现实世界的互动,令我们闭上眼睛也能回味过去与想像未来的人和事,但AI终究不在现实世界中生存、变化,成长,亦没有与父母或朋友实时互动,如何发展出真正意义上像人脑运作的大模型?

解决这个问题具有实际的意义。如果我们可以使大模型只依赖少量数据,就做到像人脑一般高效、快速,这将是引领未来的重大科技突破。但解决这个问题需要AI专家长时间地与人文、社会及脑科学学者进行跨学科合作。脑科学专家需要研究人脑的结构与功能,人文、社会学者需要研究人类儿童社会价值的形成,并将这些知识告诉AI专家,一起探讨如何建构类脑的大模型,让它能模拟在现实社会中生存、学习及互动,并发展出独立思考与自主运动能力。

不过,假如有一天真的出现了拥有「人脑」的大模型,我们必须面对相应的挑战及社会问题,特别是人类一旦过度依赖大模型,有机会失去自身应有的认知能力。

图片来源:法新社
图片来源:法新社

过度依赖AI或削弱大脑能力

举例说,当大模型能随时随地帮我们自动翻译各种语言,人类或许不再需要学习外国语言,我们人类的大脑或将会失去能够自动切换多种语言的能力。已有研究表明,长期自动切换多种语言令人类大脑有了更多认知灵活性,可能有助于延迟老年痴呆症。

再说,如果类脑大模型驱动下的机械人真的开始有了自我动机及目的,并且这目的与人类的目的有偏差,它将会作出反人类的行为,机械人计划毁灭人类或不再只是科幻电影中的桥段。

那或许该仔细思考的问题是,我们真的需要完全超人的大模型吗?

本栏欢迎院校学者投稿,分享个人学术见解及研究成果,1400字为限,查询及投稿请电邮︰[email protected]

文:香港理工大学冼为坚基金人文与科技讲座教授、人文学院院长兼理大杭州技术创新研究院副院长 李平

延伸阅读:

创新睪酮研究 开拓情绪及行为治疗新方向|研之有理

智能电网:迎接未来能源新挑战|研之有理

创新太极跑 以运动科技提升身心健康|研之有理