ChatGPT负责人称AI工具仍有「幻觉」问题 未来一季难解决

更新时间:12:25 2025-08-17 HKT
发布时间:12:25 2025-08-17 HKT

OpenAI旗下ChatGPT负责人Nick Turley接受美媒《The Verge》一个节见采访时坦言,ChatGPT在可靠和完全可靠之间存在很大的不连续性,并解释「除非我们能够证明在所有领域,而不仅仅是某些领域,ChatGPT比人类专家更可靠,否则我们会继续建议你核对答案」。

不一定作主要事实来源

Turley认为,人们会继续将ChatGPT作为第二种参考意见,而不一定将其作为主要事实来源。然而,问题在于人们很容易就直接接受聊天机械人的回答,但生成式AI工具(不只ChatGPT)往往有「幻觉」问题,也就是编造讯息,这是因为它们主要基于训练资料来预测查询答案,而没有对事实的明确理解。

不过,Turley仍然坚信,将大型语言模型结合事实真相是正确的产品,也是他们将搜寻功能引入ChatGPT的原因,认为这带来了巨大的改变。他又指,GPT-5在减少「幻觉」方面取得巨大进步,并相信最终会解决问题,但不会在未来一个季度内解决。