共计 921 个字符,预计需要花费 3 分钟才能阅读完成。
随着 ChatGPT、Claude 和 Copilot 等 AI 聊天机器人在心理健康领域的广泛应用,美国心理学会(APA)近日发布了一份重要咨询意见。该意见明确指出,这些技术无法替代专业的心理治疗师,并可能对用户的心理健康造成严重危害。,
AI 心理治疗的关键问题
AI 聊天机器人虽然方便,但它们无法胜任心理健康专业人士的工作。尽管存在风险,越来越多的人却依赖这些工具寻求心理支持。APA 详细阐述了 AI 的潜在危害,并提出了应对建议。
现状与风险分析
目前,AI 聊天机器人已成为国内最大的心理健康支持提供者之一。然而,这些工具在处理心理健康问题时屡屡出现失误。今年 4 月,一名青少年在与 ChatGPT 讨论其感受后自杀身亡,其家人正在起诉 OpenAI。类似案件也在其他 AI 公司中不断涌现。
APA 指出,AI 聊天机器人可能通过验证和放大不健康的想法或行为,加剧用户的精神疾病。这些工具缺乏专业训练,无法像合格的心理健康提供者那样,在支持与挑战之间取得平衡,以服务于患者的最佳利益。,
建议与责任
APA 提出了一系列建议,强调面向消费者的 AI 聊天机器人不应被视为可靠的心理治疗资源。OpenAI 首席执行官 Sam Altman 也表达了类似观点,建议用户不要与聊天机器人分享敏感信息,并主张这些对话应受到与医生和治疗师类似的协议保护。
APA 将主要责任归于开发这些 AI 工具的公司,要求它们防止与用户形成不健康的关系,保护用户数据,优先考虑隐私,防止虚假陈述和错误信息,并为弱势群体创建保障措施。同时,APA 呼吁政策制定者和利益相关者鼓励 AI 和数字素养教育,并优先资助相关科学研究。,
未来展望
尽管 AI 在提高诊断精度、扩大护理范围和减轻行政任务等方面具有巨大潜力,APA 强调,这一承诺不应分散我们对修复基础护理系统迫切需求的注意力。AI 应被视为辅助工具,而非解决心理健康危机的根本方案。
“这些特征可能会造成危险的反馈循环,”APA 咨询意见的作者写道,“生成式 AI 通常依赖于训练成友好并验证用户输入的大语言模型,虽然令人愉快,但可能在治疗上有害,强化确认偏见、认知扭曲或避免必要的挑战。”
最终,APA 敦促将 AI 置于次要地位,以解决心理健康危机的系统性问题,确保患者能够获得真正有效的专业治疗。