张家辉 - AI伦理是否会是问题? | Alex聊AI

  OpenAI于上月底传出在测试新款语言模型「o3」时,AI拒绝听从人类指令关机的事件。无独有偶,Anthropic当时也发布了该公司在最新的大模型测试时,当测试人员暗示将用新系统作替代,AI竟回应并威胁会公开用户隐私数据,以阻止自身被替换。

  暂不论上述事件是否属实,但市场一直广为关注AI的伦理发展,全因一旦AI出现了自主意识,其与人类之间则必然出现选择分歧。现时许多AI公司也成立了伦理委员会,以监督研发与安全之间的关系。

  犹记得有段时间OpenAI因伦理和安全问题,内部管理层亦产生分歧与动荡,可见现实中商业利益与伦理也构成选择题。事实上,人们现时对AI伦理的感知还比较遥远,毕竟大多数人平时用对话工具也不会意识到伦理问题。

  倘若AI更深入与更多日常场景结合,譬如:机械人使用、公共安全领域人应用等,或会涉及AI自身与人类之间的选择,这时有自主意识的AI是否会成为新的问题呢?目前仍然不得而知,但笔者在此大胆预言,在不久的将来一定会有公司尝试突破伦理限制。

INTL GENIUS
行政总裁
张家辉

更多文章