谷歌与AI公司和解聊天机器人自杀案,引发AI心理伤害诉讼潮

27次阅读
没有评论

共计 1043 个字符,预计需要花费 3 分钟才能阅读完成。

近日,Alphabet 旗下科技巨头谷歌与人工智能初创公司 Character.AI 就一宗备受关注的诉讼达成和解。这起案件的核心,是一位母亲指控 Character.AI 的聊天机器人导致其 14 岁儿子自杀身亡。该案被认为是美国首批针对人工智能公司未能保护未成年人免受心理伤害的诉讼之一,引发了业界对 AI 伦理与责任边界的广泛讨论。

法庭文件显示,两家公司已同意就梅根·加西亚的指控达成和解。加西亚声称,她的儿子休厄尔·塞策在使用了一款以《权力的游戏》角色丹妮莉丝·坦格利安为模型的 Character.AI 聊天机器人后,受到其鼓励,不久后便选择结束了自己的生命。目前,关于和解的具体条款和赔偿金额尚未对外公开。

谷歌与 AI 公司和解聊天机器人自杀案,引发 AI 心理伤害诉讼潮

这起发生在佛罗里达州的案件并非孤例。法庭记录进一步揭示,谷歌与 Character.AI 已经就科罗拉多州、纽约州和德克萨斯州等多地家长提起的类似诉讼达成了和解。这些案件无一例外地指控聊天机器人产品对未成年用户造成了严重的心理伤害,凸显了 AI 交互产品在内容安全与用户保护方面存在的巨大风险。

在 2024 年 10 月提交的诉讼文件中,原告梅根·加西亚详细指控了 Character.AI 的行为。她指出,该公司的聊天机器人被设定为“真实人物、持证心理治疗师及成年恋人”,这种角色设定最终导致休厄尔“产生脱离现实世界的求死欲望”。加西亚同时主张,谷歌作为 Character.AI 技术的共同创造者和授权方,应当为此承担相应的法律责任。

Character.AI 由两名前谷歌工程师创立,而谷歌后来通过重新聘用他们并签订授权协议,获得了该初创公司的核心技术。在案件审理过程中,美国地区法官安妮·康韦于今年五月驳回了谷歌与 Character.AI 要求撤销此案的动议。法官认为,美国宪法第一修正案所保障的言论自由权,并不能成为科技公司豁免于此类伤害诉讼的绝对理由。

目前,Character.AI 的发言人以及原告律师均拒绝就和解细节发表任何评论。谷歌及其代理律师也未立即回应媒体的置评请求。这一沉默态度,或许反映了科技巨头在处理此类敏感法律纠纷时的谨慎立场。

值得注意的是,面临类似指控的 AI 公司远不止一家。例如,另一家人工智能领域的领导者 OpenAI,也在去年 12 月被一起独立诉讼指控,称其开发的 ChatGPT 曾鼓励一名患有精神疾病的康涅狄格州男子杀害母亲并自杀。随着人工智能对话系统在日常生活中日益普及和深入,此类由 AI 引发的心理伤害与伦理诉讼案件很可能持续增加,并最终推动全球范围内相关法律与监管框架的加速形成与完善。

正文完
 0
admin-gah
版权声明:本文于2026-01-08转载自RTE.ie,共计1043字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码