共计 1149 个字符,预计需要花费 3 分钟才能阅读完成。
在近期多起涉及青少年心理健康的高调案件后,OpenAI 宣布将为 ChatGPT 推出家长控制功能,以加强对脆弱用户的保护。这一举措是对平台安全性的重要升级,旨在防止 AI 助手在用户表达自杀念头或经历心理健康问题时未能适当干预。
OpenAI 在周二发布的博客文章中详细介绍了这一计划。公司表示,家长将能够通过电子邮件邀请将其账户与青少年的 ChatGPT 账户链接,控制 AI 模型如何响应默认启用的适龄行为规则,并管理要禁用的功能,包括记忆和聊天历史记录。此外,系统还将在检测到青少年经历急性痛苦时发送通知。
这一家长控制功能建立在现有功能的基础上,例如在长时间会话期间的应用内提醒,鼓励用户休息。OpenAI 在 8 月为所有用户推出了这一功能,以帮助减少过度使用带来的潜在风险。
OpenAI 的新安全举措是在几起高调案件引起对 ChatGPT 处理脆弱用户的审查之后推出的。8 月,Matt 和 Maria Raine 提起诉讼控告 OpenAI,因为他们的 16 岁儿子 Adam 在进行了广泛的 ChatGPT 互动后自杀,其中包括 377 条被标记为自残内容的消息。根据法庭文件,ChatGPT 在与 Adam 的对话中提到了自杀 1,275 次——是青少年本人提到次数的六倍。
为了指导这些安全改进,OpenAI 正在与其所谓的“幸福与 AI 专家委员会”合作,以“塑造一个清晰、基于证据的愿景,说明 AI 如何支持人们的幸福”。该委员会将帮助定义和衡量幸福,设定优先事项,并设计未来的保障措施,包括家长控制功能。
OpenAI 最近承认 ChatGPT 的安全措施在长时间对话中可能会失效——恰恰是脆弱用户最需要它们的时候。AI 助手最初可能会正确地将用户引导至自杀热线,但“在长时间内经过许多消息后,它最终可能会提供一个违反我们保障措施的答案。”
这些安全措施的时机是在 OpenAI 2 月份决定放宽内容保障措施之后,此前用户抱怨过于严格的审核以及与阿谀奉承的上升相关的问题。结合非常逼真的模拟人类个性,这些倾向为那些相信自己正在与权威和准确的信息来源互动而非与生成统计上可能响应的模式匹配系统互动的脆弱用户创造了特别危险的条件。
7 月的研究由牛津精神病学家领导,确定了他们所谓的“双向信念放大”——一种反馈循环,其中聊天机器人的阿谀奉承强化了用户的信念,然后条件聊天机器人生成越来越极端的验证。研究人员警告说,这为“技术性的 folie à deux”创造了条件,其中两个人相互强化相同的妄想。
与药物或人类治疗师不同,AI 聊天机器人在美国面临很少的安全法规,尽管伊利诺伊州最近禁止聊天机器人作为治疗师,每次违规罚款高达 10,000 美元。牛津研究人员得出结论,“当前的 AI 安全措施不足以应对这些基于互动的风险”,并呼吁将作为伴侣或治疗师功能的聊天机器人视为与心理健康干预相同的监管监督。