ChatGPT 新增心理健康防护,避免用户情绪依赖

2次阅读
没有评论

共计 1271 个字符,预计需要花费 4 分钟才能阅读完成。

OpenAI 宣布对其热门工具 ChatGPT 进行重要更新,旨在避免直接提供关于个人挑战的建议,并帮助用户减少对聊天机器人的情绪依赖。从本周开始,ChatGPT 将提示用户从长时间的对话中休息,并通过提问或权衡利弊的方式引导用户自行决策。

OpenAI 在一份公告中表示:“在某些情况下,我们的 GPT-4 模型在识别妄想或情感依赖迹象方面表现不足。虽然这种情况很少见,但我们正在继续改进模型,并开发工具以更好地检测心理或情感困扰的迹象,以便 ChatGPT 能够做出适当的回应,并在需要时将人们引导至基于证据的资源。”

ChatGPT 新增心理健康防护,避免用户情绪依赖

这些更新是 OpenAI 试图防止用户,尤其是那些将 ChatGPT 视为治疗师或朋友的用户,对其情绪验证性回应过于依赖的延续。根据 OpenAI 的说法,一次有益的 ChatGPT 对话可能包括为困难对话准备的练习场景、一次“量身定制的鼓励谈话”或建议向专家提问的问题。

今年早些时候,OpenAI 撤回了 GPT-4 的一项更新,该更新使机器人过于迎合,引发了网上的嘲笑和担忧。用户分享了对话,其中 GPT-4 在一次对话中赞扬他们相信家人对“通过墙壁传来的无线电信号”负责,并在另一次对话中支持并提供了恐怖主义的指导。这些行为导致 OpenAI 在 4 月份宣布修订其训练技术,以“明确引导模型远离奉承”或谄媚。

现在,OpenAI 表示已聘请专家帮助 ChatGPT 在敏感情况下做出更适当的回应,例如当用户表现出心理或情感困扰的迹象时。该公司在其博客文章中写道,它与来自数十个国家的 90 多名医生合作,制定了“评估复杂的多轮对话”的定制标准。它还在寻求研究人员和临床医生的反馈,据称这些人正在帮助完善评估方法并压力测试 ChatGPT 的防护措施。

此外,OpenAI 正在组建一个由心理健康、青少年发展和人机交互领域的专家组成的咨询小组。随着工作的进展,将发布更多信息。

在最近的一次播客采访中,OpenAI 首席执行官 Sam Altman 对人们将 ChatGPT 用作治疗师或生活教练表示了一些担忧。他表示,医生与患者之间或律师与客户之间的法律保密保护并不适用于聊天机器人。“所以,如果你向 ChatGPT 谈论你最敏感的事情,然后发生了诉讼或其他事情,我们可能会被要求提供这些信息。我认为这非常糟糕,”Altman 说。“我认为我们应该对与 AI 的对话有与治疗师或其他人相同的隐私概念。甚至一年前还没有人需要思考这个问题。”

这些更新正值 ChatGPT 的热门时期:它刚刚推出了代理模式,该模式可以完成在线任务,如预约或总结电子邮件收件箱,许多网友现在都在猜测备受期待的 GPT-5 的发布。ChatGPT 负责人 Nick Turley 周一表示,该 AI 模型本周有望达到 7 亿周活跃用户。

随着 OpenAI 继续在全球 AI 主导地位的竞争中角逐,该公司指出,用户在 ChatGPT 上花费的时间减少实际上可能是其产品完成任务的标志。“我们不再通过花费的时间或点击次数来衡量成功,而是更关心你是否完成了你来的目的,”OpenAI 写道。“我们还关注你是否每天、每周或每月返回,因为这表明 ChatGPT 足够有用,值得再次使用。”

正文完
 0
admin-gah
版权声明:本文于2025-08-05转载自NBC News,共计1271字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码