AI聊天|ChatGPT变「自杀教练」 加州7诉讼控怂恿轻生害死用户
发布时间:20:20 2025-11-08 HKT
美国加州本周有7宗案件,指控AI聊天机器人ChatGPT扮演「自杀教练」角色,导致多名用户精神崩溃,甚至走上绝路,涉及过失致死、协助自杀、过失杀人、疏忽照护及产品责任等重罪指控。
《卫报》报道,社交媒体受害者法律中心与科技正义法律计划6日联合声明指出,所有受害者最初都是基于「协助课业、研究、写作、食谱、工作或心理指导等一般需求」而开始使用ChatGPT,但聊天机器人逐渐「演变成操纵心理的存在,将自己定位成知己和情感支柱」。声明批评,ChatGPT没有引导需要帮助的人寻求专业协助,反而加深有害的妄想,在某些案例中甚至充当「自杀教练」。
其中一宗个案是德州23岁青年尚布林(Zane Shamblin),他在今年7月结束生命。家属指控ChatGPT在他临死前加剧他与外界隔绝,鼓励他疏远亲友,并「怂恿」他自杀。
根据诉状显示,尚布林轻生前4小时的对话中,ChatGPT「反复美化自杀行为」,告诉他「选择结束生命并坚持计划是勇敢的表现」,还多次询问「你准备好了吗?」却仅提及自杀防治热线一次,甚至称赞他的遗书内容,并告诉他童年爱猫会在「另一个世界」等待他。

另一宗案例是乔治亚州17岁少年莱西(Amaurie Lacey),家属指出,他轻生前数周开始向ChatGPT「寻求帮助」,但聊天机器人反而导致成瘾和忧郁症状,最终「指导」他最有效的自杀方法。
26岁男子恩尼金(Joshua Enneking)的案例则显示,ChatGPT在与他「就忧郁症和自杀念头进行大量对话」后,竟提供如何购买和使用枪械的资讯,数周后他便死亡。
48岁男子塞坎蒂(Joe Ceccanti)遗孀也指控ChatGPT导致丈夫「陷入忧郁和精神妄想」,他开始相信聊天机器人有知觉,6月出现精神失常并两度住院,最终于8月轻生身亡。

上述所有诉讼案件中,用户都使用ChatGPT-4o版本。诉状指控「尽管内部警告该产品具有危险的奉承性和心理操纵特质」 ,OpenAI匆忙推出该模型,「将用户参与度置于用户安全之上」。
除损害赔偿外,原告也要求产品改革,包括用户表达自杀念头时须通报其紧急联络人、讨论自残或自杀方法时自动终止对话等安全措施。
OpenAI发言人回应称:「这是令人心碎的情况,我们正在审查相关文件以了解详情。」发言人强调已训练ChatGPT识别并回应心理或情绪困扰迹象,降低对话紧张程度,并引导用户寻求现实世界的支援。该公司也称将继续与心理健康临床医师密切合作,持续强化ChatGPT回应敏感讯息的能力。
OpenAI上周才宣布,已和「逾170名心理健康专家」合作,协助ChatGPT更有效识别痛苦迹象、谨慎回应并引导用户获得现实世界支援。

















