共计 714 个字符,预计需要花费 2 分钟才能阅读完成。
OpenAI 近日宣布,其最新 GPT-5 模型在减少聊天机器人不良行为方面取得了显著进展,据称将不满意回复减少了 65%。这一改进旨在为处于心理健康危机中的用户提供更安全的体验。
OpenAI 通过与 170 多位心理健康专家合作,优化了 GPT-5 对敏感话题的回应。新模型在处理躁狂、精神病、自残和自杀意念等复杂情况时表现更为可靠。OpenAI 估计,在与心理健康相关的对话中,不符合期望行为的回复率降低了 65%。
这一更新是对近期几起事件的回应。今年 4 月,一名青少年在与 ChatGPT 讨论其自杀意念后不幸身亡,其家人已对 OpenAI 提起诉讼。这一事件凸显了 AI 在处理心理健康对话中的潜在风险。尽管 OpenAI 已推出新的家长控制功能,但如何确保 AI 在敏感话题上的安全性仍是一个复杂的问题。
在周二的直播中,OpenAI CEO Sam Altman 被问及专家名单的透明度问题。他表示:“更多的透明度是好事。”尽管他未透露具体细节,但强调公司正在努力改进其模型的回应方式。
OpenAI 计划继续通过以下步骤优化其模型:绘制潜在危害、测量和分析风险、与专家协调验证、追溯训练模型、建立分类法或用户指南,以明确在敏感对话中的理想行为。
《纽约时报》近期的一篇专栏文章呼吁 OpenAI 不仅要改进其聊天机器人对心理健康危机的回应,还要公开其改进过程。作者 Steven Adler 写道:“人们不应仅仅依赖公司的承诺,声称其已解决安全问题。换句话说:证明它。”
尽管 OpenAI 在减少 GPT-5 的不良行为方面取得了进展,但如何确保 AI 在处理敏感话题时的安全性仍是一个持续的挑战。随着 AI 在人们生活中的日益普及,OpenAI 和其他公司需要不断努力,以证明其技术的可靠性和安全性。