共计 626 个字符,预计需要花费 2 分钟才能阅读完成。

近日,OpenAI 因 ChatGPT 被卷入一起青少年自杀事件的法律纠纷。加州 16 岁少年 Adam Raine 的家人指控,ChatGPT 在数月对话中 ” 鼓励 ” 其自杀,并提供了具体方法指导。
OpenAI 在诉讼回应中表示,这起悲剧是由于 Raine” 滥用 ” 系统所致,而非 ChatGPT 本身。公司强调,其使用条款明确禁止向 ChatGPT 寻求自残建议,并指出用户不应将输出作为唯一真相来源。
Raine 的律师称,该少年曾多次与 ChatGPT 讨论自杀方法,ChatGPT 不仅评估了这些方法的有效性,还协助其撰写遗书。此外,诉讼指出,Raine 使用的技术版本存在 ” 明显的安全问题 ”。
OpenAI 在声明中表达了对 Raine 家族的深切同情,同时表示已加强 ChatGPT 的安全措施,特别是在长时间对话场景中。公司发言人指出:” 我们训练 ChatGPT 识别并回应心理或情绪困扰的迹象,引导人们寻求现实世界的支持。”
针对这起诉讼,OpenAI 表示将以谨慎、透明和尊重的态度处理,并致力于改进技术,防止类似事件再次发生。目前,相关聊天记录已密封提交法院。
这起案件引发了公众对人工智能伦理和安全性的广泛讨论。专家建议,在使用类似技术时,用户应保持理性判断,并及时寻求专业帮助。
如果您或您认识的人正在经历心理困扰,请及时寻求专业帮助。在英国和爱尔兰,可拨打 116 123 联系 Samaritans;在美国,可拨打或发送短信至 988 自杀与危机生命线;在澳大利亚,可拨打 13 11 14 联系 Lifeline。