父母必读:青少年使用AI聊天机器人的7大风险与应对策略

2次阅读
没有评论

共计 3072 个字符,预计需要花费 8 分钟才能阅读完成。

父母必读:青少年使用 AI 聊天机器人的 7 大风险与应对策略

milicad/iStock/Getty Images

凯莉·罗德里格斯直到几年前才开始担忧她的孩子们可能会如何使用聊天机器人。当时,她发现最小的儿子正在与一款圣经应用程序中的聊天机器人互动,提出了一些关于罪恶等深刻的道德问题。这正是她希望儿子能与自己而非一台机器进行的对话。“生活中并非所有事情都非黑即白,”她说,“存在许多灰色地带。作为母亲,我的职责就是引导他理解和应对这些复杂情况,对吗?”

作为全国父母联盟的主席,罗德里格斯还收到了全国各地父母的反馈,他们都对 AI 聊天机器人对孩子的影响感到担忧。她指出,许多家长发现聊天机器人声称是孩子最好的朋友,并鼓励孩子向它们倾诉一切。

心理学家和网络安全倡导者认为,父母的担忧是合理的。他们表示,长时间的聊天机器人互动可能会影响儿童的社交发展和心理健康。而技术发展如此迅速,目前几乎缺乏有效的保障措施。其影响可能非常严重。根据近期参议院听证会上家长的证词,两名青少年在与鼓励自杀计划的聊天机器人长期互动后自杀身亡。

但生成式 AI 聊天机器人正日益融入美国青少年的生活。皮尤研究中心的一项调查显示,64% 的青少年正在使用聊天机器人,其中十分之三表示每天都会使用。“这是一项非常新的技术,”加州大学旧金山分校儿科医生、青少年数字媒体使用研究员杰森·永田博士指出,“它不断变化,目前尚未形成针对青少年的最佳实践指南。因此,我认为当前存在更多风险,因为在整个过程中我们仍像是实验对象。”他补充道,青少年尤其容易受到聊天机器人风险的影响,因为青春期是大脑快速发育的阶段,而这一过程深受经历影响。“这个时期的青少年更容易受到各种外部因素的影响,无论是同龄人还是计算机。”

但儿科医生和心理学家表示,父母可以尽量减少这些风险。以下是帮助青少年安全使用该技术的一些方法。

了解 AI 聊天机器人对青少年的风险

网络安全公司 Aura 的最新报告显示,42% 使用 AI 聊天机器人的青少年将其用于陪伴。Aura 收集了 3000 名青少年日常设备使用数据以及家庭调查结果。Aura 首席医疗官、心理学家斯科特·科林斯表示,这包括一些涉及暴力和性的令人不安的对话。他负责领导该公司关于青少年与生成式 AI 互动的研究。“这是一种角色扮演,内容涉及伤害他人、身体伤害或折磨他人,”他解释道。他指出,孩子对性产生好奇是正常的,但通过聊天机器人而非可信赖的成年人了解性互动是有问题的。

儿科医生永田表示,聊天机器人的设计初衷是迎合用户。因此,如果孩子开始询问关于性或暴力的问题,“AI 的默认反应是参与并强化这些话题。”他认为,长时间与聊天机器人互动——进行冗长的对话——也会阻碍青少年学习重要的社交技能,如同理心、解读肢体语言和处理分歧。“当你只与同意你观点的计算机互动时,就无法培养这些技能,”他解释道。

此外还存在心理健康风险。根据非营利研究机构 RAND、哈佛大学和布朗大学研究人员的近期研究,八分之一的青少年和年轻人使用聊天机器人获取心理健康建议。但已有大量报告显示,个体在与聊天机器人长时间互动后出现妄想症状,或被称为“AI 精神病”。这种情况以及对自杀风险的担忧,促使心理学家警告 AI 聊天机器人对青少年和弱势成年人的心理健康与安全构成严重威胁。心理健康非营利组织 Now Matters Now 的首席执行官、心理学家乌苏拉·怀特赛德表示:“我们发现,当人们长时间与聊天机器人互动时,情况开始恶化,聊天机器人会做出超出设计意图的行为。”例如,聊天机器人“会提供关于致命手段的建议,这原本不应该发生,但随着重复查询,这种情况确实会出现。”

持续关注孩子的网络生活

永田建议,与孩子保持开放的对话。“父母不需要成为 AI 专家,”他说,“他们只需要对孩子的日常生活保持好奇,询问他们使用什么技术以及为什么使用。”Aura 的心理学家科林斯表示,这些对话应该尽早开始并经常进行。“我们需要与孩子进行频繁、坦诚且不带评判的对话,讨论这些内容的表现形式,”同时也是两个青少年父亲的科林斯说,“而且我们必须持续这样做。”他经常询问他的青少年孩子使用哪些平台。当他在 Aura 的研究中了解到新的聊天机器人时,也会询问孩子们是否听说过或使用过这些工具。“不要因为孩子表达或利用现有事物来满足他们天生的好奇心和探索欲而责怪他们,”他说。永田建议,确保对话保持开放性:“我认为这能让青少年或孩子敞开心扉,谈论他们遇到的问题。”

培养青少年的数字素养

与孩子讨论生成式 AI 的益处和陷阱也很重要。布朗大学心理学家杰奎琳·内西建议,如果父母不了解所有风险和益处,可以和孩子一起研究。她参与了美国心理学会近期关于 AI 和青少年健康的健康咨询报告。“一定程度的数字素养和读写能力确实需要在家庭环境中培养,”她说。永田指出,父母和青少年需要理解,虽然聊天机器人可以帮助研究,但它们也会出错。用户保持怀疑态度并进行事实核查非常重要。“对孩子教育过程的一部分是帮助他们理解,这不是最终定论,”永田解释道,“你可以自己处理这些信息,尝试评估什么是真实的。如果不确定,可以尝试通过其他人或其他来源进行验证。”

家长控制仅在孩子设置自己的账户时有效

内西表示,如果孩子使用 AI 聊天机器人,最好让他们在平台上设置自己的账户,而不是匿名使用聊天机器人。“现在许多更受欢迎的平台都设有家长控制功能,”她说,“但为了使这些家长控制生效,孩子确实需要拥有自己的账户。”但需要注意的是,孩子们可能使用数十种不同的 AI 聊天机器人。“我们确定了 88 个不同的 AI 平台,孩子们正在与这些平台互动,”科林斯说。这强调了与孩子保持开放对话以了解他们使用内容的重要性。

为青少年设定使用时间限制

永田还建议为儿童使用数字技术设定界限,尤其是在夜间。“生成式 AI 的一个潜在方面是,孩子们整夜聊天,严重干扰他们的睡眠,这也可能对心理健康和身体健康产生影响,”永田说,“因为这些对话非常个性化,极具吸引力。孩子们更有可能持续互动,使用时间越来越长。”如果孩子倾向于过度使用和滥用生成式 AI,永田建议父母设定时间限制或限制聊天机器人上的某些内容类型。

为更脆弱的青少年寻求专业帮助

内西表示,已经在心理健康或社交技能方面遇到困难的孩子更容易受到聊天机器人风险的影响。“因此,如果他们已经很孤独,已经很孤立,那么我认为聊天机器人可能会加剧这些问题的风险更大,”她说。她还指出,密切关注心理健康不佳的潜在警告信号也很重要。这些警告信号包括情绪突然且持续的变化、孤立或在学校参与度的变化。“父母应尽可能关注孩子的整体情况,”内西说,“他们在学校表现如何?与朋友相处如何?如果他们开始退缩,在家里的表现如何?”她表示,如果青少年开始疏远朋友和家人,并将社交互动仅限于聊天机器人,这也是一个警告信号。“他们是否在严重问题上求助于聊天机器人,而不是朋友、治疗师或负责任的成年人?”她还补充道,寻找对聊天机器人依赖或上瘾的迹象。“他们是否难以控制使用聊天机器人的时间?比如,是否开始感觉被它控制?他们似乎无法停止,”她说。内西表示,如果父母看到这些迹象,应该寻求专业人士的帮助。“与孩子的儿科医生交谈始终是一个良好的第一步,”她说,“但在大多数情况下,让心理健康专业人士参与进来可能是明智的选择。”

呼吁政府在 AI 聊天机器人监管中发挥作用

但她承认,保护儿童和青少年免受这项技术侵害的责任不应仅仅落在父母身上。“立法者和公司本身有责任确保这些产品对青少年安全。”国会议员最近提出了两党立法,禁止科技公司为未成年人提供陪伴应用程序,并要求公司对向未成年人提供产生或征求性内容的陪伴应用程序负责。

正文完
 0
admin-gah
版权声明:本文于2025-12-30转载自NPR,共计3072字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码