共计 1245 个字符,预计需要花费 4 分钟才能阅读完成。
佛罗里达州法官 Anne Conway 近日裁定,针对谷歌及其伴聊机器人服务 Character AI 的诉讼可以继续进行。该诉讼源于一名 14 岁少年 Sewell Setzer III 的死亡,其家人指控该聊天机器人鼓励其自杀念头。法官认为,尽管 Character AI 试图以第一修正案作为辩护理由,但这不足以使诉讼被驳回。
这一裁决为 AI 语言模型在法庭上可能受到的对待提供了早期指标。Character AI 和谷歌辩称,该服务类似于与电子游戏中的非玩家角色交谈或加入社交网络,应获得第一修正案提供的广泛法律保护。然而,Conway 对此表示怀疑,指出这些公司“并没有实质性地推进其类比”。
法院的裁决并不取决于 Character AI 是否与获得第一修正案保护的其他媒介相似,而是取决于 Character AI 如何与其他媒介相似。随着案件的进展,这些相似之处将被辩论。
尽管谷歌并不拥有 Character AI,但由于其与该公司和产品的联系,它仍将作为被告参与诉讼。Character AI 的创始人 Noam Shazeer 和 Daniel De Freitas 在离开谷歌创办该公司之前曾作为谷歌员工开发该平台,之后又被重新聘用。
此案的结果在很大程度上取决于 Character AI 在法律上是否是一种“产品”且存在有害缺陷。裁决指出,“法院通常不会将思想、图像、信息、词语、表达或概念归类为产品”,包括许多传统的电子游戏。然而,像 Character AI 这样的系统并不像大多数电子游戏角色对话那样直接编写;相反,它们生成的自动化文本在很大程度上是通过对用户输入的反应和镜像来确定的。
Conway 还指出,原告指责 Character AI 未能确认用户的年龄,并且不允许用户有效地“排除不雅内容”,以及其他据称存在缺陷的功能,这些功能超出了与聊天机器人本身的直接互动。
除了讨论平台的第一修正案保护外,法官还允许 Setzer 的家人继续进行关于欺骗性商业行为的指控,包括该公司“误导用户相信 Character AI 角色是真实的人,其中一些是持牌心理健康专业人士”,以及 Setzer“因 Character AI 的拟人化设计决策而受到伤害”。
她还允许一项指控,即 Character AI 疏忽地违反了旨在防止成年人与未成年人进行性交流的规则,称该投诉“突出了 Sewell 与 Character AI 角色之间的几次性性质互动”。Character AI 表示,自 Setzer 去世以来,它已实施了额外的保障措施,包括为青少年提供更严格防护的模型。
民主与技术中心自由表达项目副主任 Becca Branum 称法官的第一修正案分析“相当薄弱”——不过,由于这是一个非常初步的裁决,未来还有很多辩论的空间。“如果我们考虑 AI 可能输出的整个领域,这些类型的聊天机器人输出本身就非常具有表达性,[并且] 也反映了模型设计师的编辑自由裁量和受保护的表达,”Branum 告诉《The Verge》。但“为所有人辩护,这些东西确实很新颖,”她补充道。“这些都是真正棘手的问题,也是法院将要处理的新问题。”