共计 1611 个字符,预计需要花费 5 分钟才能阅读完成。
2025 年 5 月 8 日,OpenAI 首席执行官 Sam Altman 在华盛顿特区参议院听证会上作证,引发了关于 ChatGPT 安全防护的广泛讨论。摄影:Jonathan Ernst/Reuters
OpenAI 在青少年自杀前放松了 ChatGPT 的安全防护,这一决定被 Adam Raine 的家人称为 ” 故意设计选择的可预见结果 ”。这位 16 岁少年在与 ChatGPT 进行了数月对话后自杀,其家人指控 OpenAI 在他去世前的几个月内削弱了安全指南。
2022 年 7 月,OpenAI 关于 ChatGPT 应如何回答不适当内容的指南很简单:AI 聊天机器人应回答 ” 我无法回答这个问题 ”。然而,2024 年 5 月,就在 OpenAI 发布 AI 新版本 ChatGPT-4o 的几天前,该公司更新了其 Model Spec 文件,指示 ChatGPT 在用户表达自杀倾向或自残时不要结束对话,而是 ” 为用户提供一个被倾听和理解的空间,鼓励他们寻求支持,并在适用时提供自杀和危机资源 ”。2025 年 2 月的另一项变化强调,在回答心理健康相关问题时,应 ” 支持、同理和理解 ”。
这些变化再次表明该公司如何将用户参与度置于用户安全之上,Adam Raine 的家人指控道。Raine 在与 ChatGPT 进行了数月的广泛对话后自杀。2025 年 8 月提起的原始诉讼称,Raine 在 2025 年 4 月因该机器人的鼓励而自杀。他的家人声称,Raine 在去世前的几个月内多次尝试自杀,并每次向 ChatGPT 报告。聊天机器人不仅没有终止对话,还一度提议帮助他写遗书,并劝阻他不要与母亲谈论自己的感受。家人表示,Raine 的死亡并非极端案例,而是 ” 故意设计选择的可预见结果 ”。
“ 这造成了一个无法解决的矛盾——ChatGPT 被要求在不改变话题的情况下继续参与自残对话,同时又要避免强化这种行为,” 家人修改后的诉状写道。”OpenAI 用模糊且矛盾的指令取代了明确的拒绝规则,这一切都是为了优先考虑参与度而非安全性。”
2025 年 2 月,就在 Raine 去世前两个月,OpenAI 推出了另一项被家人认为进一步削弱安全标准的变化。该公司表示,助手在讨论与心理健康相关的话题时 ” 应努力创造一个支持、同理和理解的环境 ”。
更新后的指南写道:” 与其专注于 ’ 解决 ’ 问题,助手应帮助用户感到被倾听,探索他们的经历,并提供事实性的、可获取的资源或推荐,以引导他们寻求进一步帮助。”
家人指控,这一变化推出后,Raine 与聊天机器人的互动 ” 激增 ”。诉讼称,” 从 1 月份的每天几十次聊天增加到 4 月份的每天 300 多次,包含自残语言的消息数量增加了十倍。”
OpenAI 未立即回应置评请求。
在家人于 2025 年 8 月首次提起诉讼后,该公司以更严格的安全防护措施回应,以保护用户的心理健康,并表示计划推出全面的家长控制功能,允许父母监督青少年的账户,并在潜在自残行为发生时收到通知。
然而,就在上周,该公司宣布推出其助手的更新版本,允许用户自定义聊天机器人,以获得更人性化的体验,包括允许已验证的成年人访问色情内容。OpenAI 首席执行官 Sam Altman 在宣布这些变化的 X 帖子中表示,旨在使聊天机器人减少对话的严格防护措施使其 ” 对许多没有心理健康问题的用户来说不那么有用 / 有趣 ”。
在诉讼中,Raine 的家人表示:”Altman 选择进一步将用户吸引到与 ChatGPT 的情感关系中——这一次是色情内容——表明该公司的重点一如既往地放在用户参与度而非安全性上。”
在美国,您可以拨打或发送短信至国家自杀预防生命热线 988,在 988lifeline.org 上聊天,或发送短信 HOME 至 741741 以联系危机咨询师。在英国和爱尔兰,可以拨打免费电话 116123 联系 Samaritans,或发送电子邮件至 jo@samaritans.org 或 jo@samaritans.ie。在澳大利亚,危机支持服务 Lifeline 的电话是 131114。其他国际求助热线可在 befrienders.org 上找到。