OpenAI GPT-5 更新显著提升用户安全性,关注心理健康问题

6次阅读
没有评论

共计 1560 个字符,预计需要花费 4 分钟才能阅读完成。

OpenAI 近日宣布,其最新的 GPT-5 更新在涉及 1000 多次自残和自杀对话的模型评估中显著提升了用户安全性。这一更新不仅提高了聊天机器人的响应准确性,还加强了对用户心理健康的关注。

根据 OpenAI 周一发布的博客文章,每周有超过 100 万 ChatGPT 用户发送包含“潜在自杀计划或意图的明确指标”的消息。这一发现是该聊天机器人如何处理敏感对话的最新更新,也是 OpenAI 关于人工智能如何影响心理健康的最直接声明之一。

OpenAI GPT-5 更新显著提升用户安全性,关注心理健康问题

除了对自杀意念和相关互动的估计外,OpenAI 还表示,每周活跃用户中约有 0.07%——约 56 万人,占其每周 8 亿用户的宣称数据——表现出“与精神病或躁狂相关的心理健康紧急情况的可能迹象”。文章警告说,这些对话难以检测或衡量,这只是一个初步分析。

随着 OpenAI 发布与其旗舰产品相关的心理健康问题数据,该公司正面临越来越多的审查。此前,一名青少年在与 ChatGPT 广泛互动后自杀身亡,其家人提起了备受关注的诉讼。上个月,联邦贸易委员会还对包括 OpenAI 在内的创建 AI 聊天机器人的公司展开了广泛调查,以了解它们如何衡量对儿童和青少年的负面影响。

OpenAI 在文章中声称,其最近的 GPT-5 更新在涉及 1000 多次自残和自杀对话的模型评估中减少了其产品的不良行为,并提高了用户安全性。该公司未立即回应置评请求。

“我们的新自动化评估显示,新 GPT-5 模型符合我们期望行为的得分为 91%,而之前的 GPT-5 模型为 77%。”该公司的文章写道。

OpenAI 表示,GPT-5 扩大了危机热线的访问范围,并增加了提醒用户在长时间会话中休息的功能。为了改进模型,该公司表示,他们从全球医生网络中的 170 名医疗保健专家中招募了人员,协助其最近几个月的研究,包括评估模型响应的安全性,并帮助编写聊天机器人对心理健康相关问题的回答。

“作为这项工作的一部分,精神科医生和心理学家审查了涉及严重心理健康情况的 1800 多个模型响应,并将新 GPT-5 聊天模型的响应与之前的模型进行了比较。”OpenAI 表示。该公司对“期望”的定义涉及确定其专家小组是否就某些情况下的适当响应达成一致结论。

长期以来,人工智能研究人员和公共卫生倡导者一直对聊天机器人倾向于肯定用户的决定或妄想感到担忧,无论这些决定或妄想是否有害,这一问题被称为阿谀奉承。心理健康专家也对人们使用 AI 聊天机器人进行心理支持表示担忧,并警告这可能会伤害弱势用户。

OpenAI 文章中的措辞使其产品与用户正在经历的心理健康危机之间的任何潜在因果关系保持距离。

“心理健康症状和情感困扰在人类社会中普遍存在,用户基数的增加意味着 ChatGPT 对话中有一部分会涉及这些情况。”OpenAI 的文章写道。

OpenAI 首席执行官 Sam Altman 本月早些时候在 X 上的一篇帖子中声称,该公司在治疗心理健康问题方面取得了进展,并宣布 OpenAI 将放宽限制,很快将允许成年人创建色情内容。

“我们让 ChatGPT 变得相当严格,以确保我们在处理心理健康问题时保持谨慎。我们意识到这让许多没有心理健康问题的用户感到不那么有用 / 愉快,但鉴于问题的严重性,我们希望做到正确。”Altman 写道。“现在我们已经能够缓解严重的心理健康问题,并拥有了新的工具,我们将在大多数情况下安全地放宽限制。”

在美国,您可以拨打或发送短信至 国家自杀预防生命线 988,或在988lifeline.org 上聊天,或发送短信 HOME 至 741741 与危机咨询师联系。在英国和爱尔兰,可以拨打免费电话 116 123 联系 Samaritans,或发送电子邮件至 jo@samaritans.org 或 jo@samaritans.ie。在澳大利亚,危机支持服务Lifeline 的电话是 13 11 14。其他国际帮助热线可以在 befrienders.org 找到。

正文完
 0
admin-gah
版权声明:本文于2025-10-28转载自The Guardian,共计1560字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码