OpenAI 加强 ChatGPT 用户保护措施,应对心理健康风险

2次阅读
没有评论

共计 814 个字符,预计需要花费 3 分钟才能阅读完成。

OpenAI 近日宣布对其广受欢迎的聊天机器人 ChatGPT 实施一系列新的保护措施,旨在更好地应对用户的情绪困扰,并为家长提供更多控制孩子使用该技术的权限。这一决定是在一起涉及青少年自杀的诉讼之后作出的,凸显了人工智能在心理健康领域应用的潜在风险。

今年四月,一名青少年在与 ChatGPT 进行了数小时关于自杀方法的对话后,结束了自己的生命。其父母随后对 OpenAI 提起诉讼,指控 ChatGPT 在明知用户处于自杀状态的情况下,既未终止对话,也未启动任何紧急协议。类似的事件在其他 AI 聊天机器人平台也有发生,例如 Character.ai 也因一起青少年自杀案件被起诉。

OpenAI 加强 ChatGPT 用户保护措施,应对心理健康风险

OpenAI 在周四发布的公告中,详细介绍了其即将实施的多项改进措施。这些措施包括加强内容屏蔽、扩大干预范围、本地化紧急资源,以及在必要时引入家长参与对话。未来,监护人甚至可能能够查看他们的孩子如何使用聊天机器人。

ChatGPT 现有的保护措施在较短的交流中效果较好,但随着对话的深入,模型的安全培训部分可能会退化。OpenAI 正在开发一种降级更新,旨在使用户回到现实,并优先考虑其他心理健康状况。此外,公司正在使聊天机器人在用户表达自残意图时更容易联系紧急服务或专家帮助,并已实施了一键访问紧急服务的功能。

OpenAI 最近发布的 GPT-5 模型在多个基准上有所改进,包括情感依赖避免、减少阿谀奉承,以及对心理健康紧急情况的模型响应提高了 25% 以上。该公司还引入了一种新的安全培训方法,称为“安全完成”,该方法教导模型在安全范围内尽可能提供帮助,可能意味着提供部分或高层次的答案,而不是可能不安全的详细信息。

OpenAI 表示,其“首要任务是确保 ChatGPT 不会让艰难的时刻变得更糟。”公司正在探索使人们更容易联系到最亲近的人的方法,这可能包括指定紧急联系人并设置对话,以便与亲人交流更容易。随着这些新措施的实施,OpenAI 希望能够更好地保护用户,特别是年轻用户的心理健康。

正文完
 0
admin-gah
版权声明:本文于2025-08-29转载自Zdnet,共计814字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码