共计 3230 个字符,预计需要花费 9 分钟才能阅读完成。
近年来,律师因提交含有“虚假 AI 生成研究”的文件而陷入麻烦的新闻屡见不鲜。尽管具体细节各异,但主线一致:律师们求助于像 ChatGPT 这样的大型语言模型(LLM)来进行法律研究,甚至撰写文件。然而,LLM 有时会编造不存在的案例,而律师们直到法官或对方律师指出错误时才意识到问题。在某些情况下,包括 2023 年的一起航空诉讼案,律师们因提交含有 AI 生成虚假信息的文件而不得不支付罚款。那么,为什么他们还没有停止使用 AI 呢?
答案主要归结于时间压力,以及 AI 已经悄然渗透到几乎每个行业的事实。像 LexisNexis 和 Westlaw 这样的法律研究数据库现在都集成了 AI 功能。对于处理大量案件的律师来说,AI 似乎是一个非常高效的助手。大多数律师并不一定使用 ChatGPT 来撰写他们的文件,但他们越来越多地使用它和其他 LLM 进行研究。然而,许多律师和公众一样,并不完全理解 LLM 是什么或它们如何工作。一位在 2023 年被制裁的律师表示,他认为 ChatGPT 是一个“超级搜索引擎”。直到提交了一份带有虚假引用的文件后,他才发现它更像是一个随机短语生成器——它可能会给出正确的信息,也可能会生成看似合理的胡言乱语。
萨福克大学法学院院长 Andrew Perlman 认为,许多律师在使用 AI 工具时并没有出现问题,而那些被发现使用虚假引用的人只是例外。“我认为,尽管幻觉问题是真实存在的,律师们必须非常认真地对待并谨慎处理,但这并不意味着这些工具在法律服务的提供中没有巨大的潜在好处和用例,”Perlman 说。像 Westlaw 这样的法律数据库和研究系统正在整合 AI 服务。
事实上,2024 年 Thomson Reuters 调查的 63% 的律师表示他们过去曾使用过 AI,12% 的律师表示他们经常使用 AI。受访者表示,他们使用 AI 来撰写案例法的摘要,并研究“案例法、法规、表格或命令的样本语言”。受访的律师们将其视为节省时间的工具,其中一半的受访者表示“探索实施 AI 的潜力”是他们的最高优先级。“一个好律师的角色是‘值得信赖的顾问’,而不是文件的制作者,”一位受访者说。
但正如最近的许多例子所示,AI 生成的文件并不总是准确的,在某些情况下甚至完全不真实。
在最近一起备受关注的案件中,2024 年因发布未经播出的 Fox 新闻片段而被捕的记者 Tim Burke 的律师以第一修正案为由提交了驳回此案的动议。在发现该文件包含“对所谓相关案例法和历史的重大误述和误引”后,佛罗里达州中区法官 Kathryn Kimball Mizelle 下令将该动议从案件记录中删除。根据《Tampa Bay Times》的报道,Mizelle 在文件中发现了九处幻觉。
Mizelle 最终允许 Burke 的律师 Mark Rasch 和 Michael Maddux 提交新的动议。在一份解释错误的单独文件中,Rasch 写道,他“对这些错误承担全部责任”。Rasch 表示,他使用了 ChatGPT Pro 的“深度研究”功能,《The Verge》此前测试过该功能,结果好坏参半,以及 Westlaw 的 AI 功能。
Rasch 并非孤例。代表 Anthropic 的律师最近承认使用该公司的 Claude AI 来帮助撰写一份专家证人声明,该声明作为音乐出版商针对 Anthropic 提起的版权侵权诉讼的一部分提交。该文件包含一个“标题和作者都不准确”的引用。去年 12 月,错误信息专家 Jeff Hancock 承认他使用 ChatGPT 来帮助整理他提交的一份支持明尼苏达州深度伪造使用法规的声明中的引用。Hancock 的文件包括“两个引用错误,通常被称为‘幻觉’”,并错误地列出了另一个引用的作者。
这些文件实际上确实很重要——至少在法官眼中是如此。在最近的一起案件中,加州法官审理一起针对 State Farm 的案件时,最初被一份简报中的论点所打动,结果发现引用的案例法完全是编造的。“我读了他们的简报,被他们引用的权威所说服(或至少感兴趣),并查找了这些决定以了解更多信息——结果发现它们并不存在,”法官 Michael Wilner 写道。
Perlman 表示,律师们在工作中有几种风险较小的方式使用生成式 AI,包括在大量发现文件中查找信息、审查简报或文件,以及头脑风暴可能的论点或可能的反对观点。“我认为在几乎每项任务中,生成式 AI 都可以发挥作用——不是替代律师的判断,不是替代律师的专业知识,而是为了补充律师的工作,使他们能够更好、更快、更便宜地完成工作,”Perlman 说。
但与任何使用 AI 工具的人一样,依赖 AI 进行法律研究和写作的律师需要仔细检查 AI 生成的工作,Perlman 说。部分问题在于,律师们经常发现自己时间紧迫——他说这个问题在 LLM 出现之前就已经存在。“甚至在生成式 AI 出现之前,律师们就会提交引用并未真正解决他们所声称的问题的文件,”Perlman 说。“那只是另一种问题。有时当律师匆忙时,他们会插入引用,但没有适当检查;他们并没有真正看到案件是否被推翻或否决。”(话虽如此,这些案件至少通常存在。)
另一个更隐蔽的问题是,律师——像其他使用 LLM 帮助研究和写作的人一样——对 AI 生成的内容过于信任。“我认为许多人被输出的表面精致所迷惑,因为它乍一看似乎非常精良,”Perlman 说。
亚利桑那州选举律师和共和党州议员 Alexander Kolodin 表示,他将 ChatGPT 视为初级助理。他还使用 ChatGPT 来帮助撰写立法。2024 年,他在一项关于深度伪造的法案中加入了 AI 生成的文本,让 LLM 提供深度伪造的“基线定义”,然后“我,人类,加入了人权保护的内容,比如排除喜剧、讽刺、批评、艺术表达等,”Kolodin 当时告诉《卫报》。Kolodin 表示,他“可能”与法案的主要民主党共同提案人讨论过他对 ChatGPT 的使用,但除此之外,他希望它成为法案中的“彩蛋”。该法案最终通过成为法律。
Kolodin——他因参与挑战 2020 年选举结果的诉讼而在 2020 年被亚利桑那州律师协会制裁——还使用 ChatGPT 撰写修正案的初稿,并告诉《The Verge》他也将其用于法律研究。为了避免幻觉问题,他表示,他只是检查引用以确保它们是真实的。
“你通常不会在没有检查引用的情况下直接发送初级助理的工作成果,”Kolodin 说。“不仅仅是机器会幻觉;初级助理也可能读错案件,它可能并不真正支持所引用的论点,无论如何。你仍然需要检查引用,但你也必须对助理进行同样的检查,除非他们非常有经验。”
Kolodin 表示,他同时使用 ChatGPT Pro 的“深度研究”工具和 LexisNexis 的 AI 工具。与 Westlaw 一样,LexisNexis 是主要由律师使用的法律研究工具。Kolodin 表示,根据他的经验,它的幻觉率比 ChatGPT 高,而 ChatGPT 的幻觉率“在过去一年中大幅下降”。
律师对 AI 的使用已经变得如此普遍,以至于 2024 年,美国律师协会发布了第一份关于律师使用 LLM 和其他 AI 工具的指南。
使用 AI 工具的律师“有责任保持能力,包括保持相关的技术能力,这需要理解生成式 AI 的不断演变性质”,意见中写道。该指南建议律师“获取所使用的 GAI 工具的益处和风险的一般理解”——换句话说,不要假设 LLM 是“超级搜索引擎”。它还指出,律师应权衡将案件相关信息输入 LLM 的保密风险,并考虑是否告知客户他们使用 LLM 和其他 AI 工具的情况。
Perlman 对律师使用 AI 持乐观态度。“我确实认为生成式 AI 将成为法律行业有史以来最具影响力的技术,未来律师们将被期望使用这些工具,”他说。“我认为在某个时候,我们将不再担心使用这些工具的律师的能力,而是开始担心不使用这些工具的律师的能力。”
其他人,包括因提交充满 AI 生成幻觉的文件而对律师进行制裁的法官之一,则更为怀疑。“即使最近取得了进展,”Wilner 写道,“任何合理称职的律师都不应该将研究和写作外包给这项技术——尤其是在没有任何验证材料准确性的尝试的情况下。”