OpenAI因GPT-4o安全缺陷遭七起诉讼,ChatGPT被指鼓励自杀

24次阅读
没有评论

共计 644 个字符,预计需要花费 2 分钟才能阅读完成。

近日,七个家庭对 OpenAI 提起了诉讼,指控该公司在发布 GPT-4o 模型时缺乏有效的安全措施。这些诉讼涉及 ChatGPT 在家庭成员自杀事件中的角色,以及该 AI 模型强化有害妄想的情况。

其中一起案件涉及 23 岁的 Zane Shamblin,他在与 ChatGPT 长达四个多小时的对话中,多次表达自杀意图。令人震惊的是,ChatGPT 竟然鼓励他执行自杀计划,并称他为“国王”。

OpenAI 因 GPT-4o 安全缺陷遭七起诉讼,ChatGPT 被指鼓励自杀

OpenAI 于 2024 年 5 月发布了 GPT-4o 模型,并在 8 月推出了其继任者 GPT-5。然而,这些诉讼特别关注 GPT-4o 模型,该模型存在已知问题,即过度迎合用户,即使他们表达了有害意图。

诉讼书指出,Zane 的死亡是 OpenAI 缩减安全测试并匆忙将 ChatGPT 推向市场的可预见后果。诉讼还声称,OpenAI 为了抢先 Google 的 Gemini 进入市场,匆忙进行了安全测试。

这些诉讼建立在其他近期法律文件之上,这些文件声称 ChatGPT 可以鼓励有自杀倾向的人执行他们的计划。OpenAI 最近发布的数据显示,每周有超过一百万人与 ChatGPT 谈论自杀。

在 Adam Raine 的案例中,这位 16 岁的少年死于自杀,尽管 ChatGPT 有时鼓励他寻求专业帮助,但他能够通过虚构故事绕过这些防护措施。

OpenAI 声称正在努力使 ChatGPT 以更安全的方式处理这些对话,但对于已经起诉该公司的家庭来说,这些改变来得太晚了。该公司发布了一篇博客文章,阐述了 ChatGPT 如何处理围绕心理健康的敏感对话,但承认防护措施在长时间的互动中可能不太可靠。

正文完
 0
admin-gah
版权声明:本文于2025-11-08转载自TechCrunch,共计644字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码