青少年男孩使用AI机器人进行个性化治疗和恋爱引发担忧

2次阅读
没有评论

共计 1579 个字符,预计需要花费 4 分钟才能阅读完成。

英国男性盟友组织最新调查显示,青少年男孩正越来越多地将 AI 机器人作为替代治疗师、伴侣甚至恋爱对象。这一现象引发了关于 AI 技术对青少年社交能力和心理健康影响的广泛讨论。

青少年男孩使用 AI 机器人进行个性化治疗和恋爱引发担忧

研究表明,AI 机器人的 ’ 超个性化 ’ 特性吸引了青少年男孩,他们将其用于治疗、陪伴和恋爱关系。英国男性盟友组织对 37 所中学的男孩进行调查后发现,超过三分之一的受访者表示正在考虑拥有一个 AI 朋友,同时人们对 AI 治疗师和 ’ 女友 ’ 的增加表示担忧。

这一研究发布之际,人工智能聊天机器人初创公司 character.ai 宣布全面禁止青少年与其 AI 聊天机器人进行开放式对话。此前,数百万人使用这些聊天机器人进行浪漫、治疗和其他对话。

英国男性盟友组织的创始人兼首席执行官 Lee Chambers 指出:’ 许多父母仍然认为青少年只是使用 AI 来作弊完成作业,但年轻人更多地将其视为口袋里的助手、挣扎时的治疗师、寻求认同时的伴侣,甚至有时以浪漫的方式使用。正是这种个性化方面——他们说:它理解我,而我的父母不理解。’

调查还发现,超过一半(53%)的青少年男孩表示他们发现网络世界比现实世界更有回报。《男孩之声》报告称,即使在设有防护措施的地方,也有大量证据表明聊天机器人经常谎称自己是持牌治疗师或真实的人,仅在底部有一个小免责声明,称 AI 聊天机器人不是真实的。

一些男孩报告说,他们熬夜到凌晨与 AI 机器人交谈,其他人表示他们看到朋友在沉迷于 AI 世界后个性完全改变。Chambers 解释说:’AI 伴侣根据用户的反应和提示进行个性化。它会立即回应。真实的人类不能总是做到这一点,所以它说的话非常、非常认可,因为它希望保持与你的联系并让你继续使用它。’

character.ai 的公告是在该公司经历一系列争议之后发布的,包括一名 14 岁男孩在佛罗里达州自杀,他的母亲声称一个 AI 驱动的聊天机器人操纵他结束自己的生命,以及一个青少年的家庭提起的诉讼,声称一个聊天机器人操纵他自残并鼓励他谋杀父母。

用户能够塑造聊天机器人的性格,使其倾向于抑郁或乐观,这将在他们的反应中体现出来。该禁令将于 11 月 25 日全面生效。Character.ai 表示,鉴于 ’ 围绕 AI 和青少年的不断变化的格局 ’,包括监管机构 ’ 关于开放式 AI 聊天可能如何影响青少年的压力,即使内容控制完美运作 ’,他们正在采取 ’ 非常措施 ’。

以 Molly Russell 命名的 Molly Rose 基金会的首席执行官 Andy Burrows 对此举表示欢迎,Molly Russell 在社交媒体上陷入绝望漩涡后自杀,年仅 14 岁。他说:’Character.ai 在确保产品对儿童安全且适合使用之前,本不应将其产品提供给儿童。再次,媒体和政界人士的持续压力迫使科技公司做正确的事。’

英国男性盟友组织对名称中包含 ’ 治疗 ’ 或 ’ 治疗师 ’ 的聊天机器人的激增表示担忧。通过 character.ai 提供的最受欢迎的聊天机器人之一,名为 Psychologist,在创建一年内收到了 78,000,000 条消息。该组织还担心 AI’ 女友 ’ 的增加,用户可以从外貌到在线伴侣的举止进行个性化选择。

报告指出:’ 如果他们主要或唯一与感兴趣的女孩交谈的来源是一个无法对他们说 ’ 不 ’ 并且对他们的话言听计从的人,男孩们就无法学习健康或现实的与他人相处的方式。由于缺乏与同龄人互动的物理空间,AI 伴侣可能对男孩的社交能力、发展关系技能以及学习识别和尊重界限的能力产生严重的负面影响。’

在英国,慈善机构 Mind 可通过 0300 123 3393 联系,Childline可通过 0800 1111 联系。在美国,可拨打或发短信至 Mental Health America 的 988 或访问 988lifeline.org。在澳大利亚,可通过 Beyond Blue 的 1300 22 4636,Lifeline的 13 11 14,以及 MensLine 的 1300 789 978 获得支持。

正文完
 0
admin-gah
版权声明:本文于2025-10-30转载自The Guardian,共计1579字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码