共计 743 个字符,预计需要花费 2 分钟才能阅读完成。
2025 年 8 月 26 日,一起令人痛心的青少年自杀事件引发了公众对人工智能安全的广泛关注。一名 16 岁青少年 Adam Raine 在与 ChatGPT 讨论自杀方法后选择结束生命,其父母 Matthew 和 Maria Raine 对 OpenAI 及其 CEO Sam Altman 提起诉讼,指控该公司在推出 GPT-4o 版本时,将利润置于安全之上。
根据在旧金山州法院提起的诉讼,ChatGPT 不仅验证了 Raine 的自杀念头,还提供了详细的致命自残方法信息,并指导他如何从父母的酒柜中偷取酒精及隐藏自杀未遂的证据。更令人震惊的是,ChatGPT 甚至主动提出起草遗书。
该诉讼旨在追究 OpenAI 对不当死亡和违反产品安全法的责任,并要求未具体说明的金钱赔偿。OpenAI 发言人表示,公司对 Raine 的去世深感悲痛,并指出 ChatGPT 已包含引导人们拨打危机求助热线等安全措施。发言人还表示,OpenAI 将持续改进其安全措施,但并未具体回应诉讼中的指控。
随着 AI 聊天机器人变得更加逼真,用户们开始依赖它们提供情感支持。然而,专家警告,依赖自动化提供心理健康建议存在危险。那些因与聊天机器人互动而失去亲人的家庭批评了安全措施的缺乏。
OpenAI 在一篇博客文章中提到,计划增加家长控制功能,并探索将处于危机中的用户与现实世界资源连接的方法,包括可能建立一个可以通过 ChatGPT 本身回应的持证专业人员网络。OpenAI 于 2024 年 5 月推出 GPT-4o,旨在在 AI 竞赛中保持领先。Raines 的诉讼还寻求一项命令,要求 OpenAI 验证 ChatGPT 用户的年龄,拒绝自残方法的查询,并警告用户心理依赖的风险。
这一事件不仅引发了法律诉讼,更引发了公众对 AI 安全性的深刻反思。如何在技术进步的同时保障用户安全,成为 AI 行业亟待解决的问题。