聊天机器人如何影响心理健康?专家深度解析

48次阅读
没有评论

共计 2548 个字符,预计需要花费 7 分钟才能阅读完成。

图表显示,人们与 ChatGPT 互动的时间越长,越容易报告孤独感和其他心理健康风险。(MIT/OpenAI)

很少有像 Instagram 和 TikTok 这样的社交网络如何影响我们集体福祉的问题能引发如此多的讨论,却鲜有普遍接受的结论。2023 年,美国卫生局局长发布了一份咨询报告,指出社交网络可能对年轻人的心理健康产生负面影响。其他研究发现,社交网络的引入对人口福祉没有可衡量的影响。

聊天机器人如何影响心理健康?专家深度解析

在这场辩论持续的同时,数十个州的立法者通过了旨在限制社交媒体使用的法律,认为其确实构成严重风险。但这些法律的实施大多被法院阻止,法院以第一修正案为由驳回了这些法律。

在等待某种解决方案的同时,这场辩论的下一个前沿正迅速显现。去年,佛罗里达州一名 14 岁男孩的母亲起诉了聊天机器人制造商 Character.ai,指控其应对男孩的自杀负责。(Hard Fork 节目曾与她进行过对话。)数百万美国人——包括年轻人和成年人——正在与聊天机器人建立情感和性关系。

随着时间的推移,聊天机器人预计将比今天的社交媒体更具吸引力。它们为用户个性化定制;拥有逼真的人声;并且在几乎所有情况下都被编程为肯定和支持用户。

那么,长期使用这些机器人将如何影响其人类用户?平台应采取哪些措施来降低风险?

这些问题正是 MIT 媒体实验室和 OpenAI 的研究人员于周五发布的两项新研究的核心。虽然需要进一步的研究来支持其结论,但他们的发现既与早先关于社交媒体的研究一致,也向那些正在构建以参与度优化的聊天机器人的平台发出了警告。

在第一项研究中,研究人员收集并分析了来自 4,076 名同意参与的用户的超过 400 万次 ChatGPT 对话。随后,他们调查了参与者这些互动如何影响他们的感受。

在第二项研究中,研究人员招募了 981 人参与为期四周的试验。每人被要求每天至少使用 ChatGPT 五分钟。试验结束时,参与者填写了一份关于他们对 ChatGPT 的看法、是否感到孤独、是否与现实世界中的人社交以及是否认为使用聊天机器人有问题的调查。

研究发现,大多数用户与 ChatGPT 保持中立关系,将其视为与其他软件工具一样的工具。但两项研究也发现了一组重度用户——那些使用 ChatGPT 时间最长的前 10% 用户——他们的使用情况表明更多值得关注的问题。

研究发现,频繁使用 ChatGPT 与孤独感增加、情感依赖增强以及社交互动减少相关。

“一般来说,与聊天机器人进行个人对话的用户往往更容易感到孤独,”研究人员写道。“那些花更多时间与聊天机器人互动的人往往更孤独。”

(快速编辑说明:OpenAI 值得赞扬的是,他们投资了这项研究并公开了结果。这种自我怀疑的调查正是我长期以来倡导像 Meta 这样的公司多做的工作;然而,在 Frances Haugen 的揭露之后,Meta 反而做得更少了。)

参与这些研究的 OpenAI 研究员 Jason Phang 警告说,这些发现需要其他研究复制才能被视为确定。“这些是初步研究的相关性,因此我们不想在这里得出过于强烈的结论,”他在一次采访中表示。

尽管如此,这里有很多值得讨论的内容。

需要注意的是,这些研究并不表明频繁使用 ChatGPT 直接导致孤独感。相反,研究表明,孤独的人更有可能寻求与机器人建立情感纽带——正如早先的研究表明,孤独的人在社交媒体上花费的时间更多。

这对 OpenAI 来说影响较小,因为 OpenAI 设计 ChatGPT 时更多将其定位为生产力工具而非伴侣。(尽管这并没有阻止一些人爱上它。)但其他开发者——Character.ai、Replika、Nomi——都在有意吸引寻求更多情感连接的用户。“发展一段激情关系,”Nomi 网站上的文案写道。“加入已经找到 AI 灵魂伴侣的数百万人,”Replika 宣传道。

这些应用程序都提供按月付费订阅;其中一项好处是更长的“记忆”,使聊天机器人能够进行更逼真的角色扮演。Nomi 和 Replika 通过应用内货币销售额外福利,允许用户购买 AI“自拍”、化妆品和额外的聊天功能以增强幻想。

对大多数人来说,这一切可能都还好。但 MIT 和 OpenAI 的研究表明,这里存在危险:足够吸引人的聊天机器人可能会将人们从人际连接中拉走,可能使他们感到更孤独,并更依赖他们必须付费才能维持连接的合成伴侣。

“目前,ChatGPT 非常注重作为知识工作者和工作工具,”OpenAI 的 AI 政策研究员、这些研究的研究员之一 Sandhini Agarwal 在一次采访中表示。“但随着……我们设计更多旨在更像个人伴侣的聊天机器人……我认为考虑到对福祉的影响将非常重要。因此,这是试图推动行业朝着这个方向发展。”

该怎么做?平台应努力了解哪些早期指标或使用模式可能表明某人正在与聊天机器人建立不健康的关系。(OpenAI 在这项研究中使用的自动机器学习分类器似乎是一个有前途的方法。)他们还应该考虑从社交网络中借鉴一些功能,包括当用户每天在应用程序中花费数小时时定期发出“提醒”。

“我们不希望人们做出像‘哦,聊天机器人不好’或‘聊天机器人很好’这样的概括性声明,”参与这些研究的 MIT 研究员 Pat Pataranutaporn 告诉我。“我们试图表明,这真的取决于设计和人与聊天机器人之间的互动。这是我们希望人们理解的信息。并非所有聊天机器人都是一样的。”

研究人员称这种方法为“社会情感对齐”:设计满足用户需求而不利用他们的机器人。

与此同时,立法者应警告平台远离剥削性商业模式,这些模式试图让孤独的用户沉迷于他们的机器人,然后不断提高维持这种连接的成本。许多目前针对年轻人和社交网络的州法律最终也可能会被修改以涵盖 AI。

尽管存在潜在风险,仍然认为聊天机器人应该对许多人的生活产生净积极影响。(研究的其他发现之一是,使用 ChatGPT 的语音模式有助于减少孤独感和对聊天机器人的情感依赖,尽管随着使用频率的增加,这种效果逐渐减弱。)大多数人没有得到足够的情感支持,将一位善良、智慧且值得信赖的伴侣放入每个人的口袋中,可能会为数十亿人带来类似治疗的好处。

但要实现这些好处,聊天机器人制造商必须承认,用户的心理健康现在部分成为他们的责任。社交网络等待了太久才承认,相当一部分用户因过度使用它们而遭受了可怕的后果。如果超级智能的潜在发明者这次不够聪明,无法做得更好,那将是一个真正的遗憾。

正文完
 0
admin-gah
版权声明:本文于2025-03-26转载自Platformer.news,共计2548字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码