法官呼吁禁止专家秘密使用AI影响案件

76次阅读
没有评论

共计 2391 个字符,预计需要花费 6 分钟才能阅读完成。

纽约一名法官近日对一名专家证人提出批评,该专家证人使用微软的 Copilot 聊天机器人,在一场房地产纠纷中错误地估算了损害赔偿,该纠纷部分取决于对损害的准确评估以赢得案件。

法官呼吁禁止专家秘密使用 AI 影响案件

在周四的一份命令中,法官 Jonathan Schopf 警告称,“由于人工智能的快速演进及其固有的可靠性问题”,任何使用 AI 的行为都应在证词或证据被法庭采纳之前披露。Schopf 承认法庭对 Copilot 的工作原理缺乏客观理解,并建议如果专家开始大规模过度依赖聊天机器人,可能会扰乱法律体系。

在专家证人 Charles Ranson 可疑地使用 Copilot 交叉检查巴哈马一处价值 485,000 美元的租赁房产的计算后,Schopf 发出了这一警告,该房产被纳入已故男子的儿子的信托中。法庭被要求评估执行人和受托人——已故男子的妹妹——是否通过延迟出售该房产并在明显用于个人度假时违反了其受托责任。

为了胜诉,幸存的儿子必须证明他的姑姑通过保留该房产违反了她的职责,她在那里的度假是一种自我交易,并且他因她对该房产的滥用而遭受了损害。

Ranson 的任务是计算如果姑姑在 2008 年出售该房产,儿子应得多少赔偿,与 2022 年的实际售价相比。但 Ranson 作为信托和遗产诉讼的专家,缺乏相关的房地产专业知识,Schopf 表示,发现 Ranson 的证词“完全是推测性的”,并且未能考虑明显的事实,如疫情对租金价格或信托费用如房地产税的影响。

由于 Ranson 似乎没有相关的房地产经验,他转向 Copilot 来填补空白并计算数字。这一举动让互联网法律专家 Eric Goldman 感到震惊,他告诉 Ars,“律师保留专家证人是因为他们的专业知识,专家证人将这种专业知识外包给生成式 AI 是没有意义的。”

“如果专家证人只是向聊天机器人询问计算结果,那么律师可以直接提出相同请求,而不必依赖专家证人(并支付专家的高额费用),”Goldman 建议。

也许儿子的法律团队并不知道 Copilot 扮演了多大的角色。Schopf 指出,Ranson 不记得他用什么提示来得到他的损害赔偿估算。专家证人也不记得他从聊天机器人获取信息的来源,并承认他对 Copilot 的“工作原理或如何得出特定输出”缺乏基本理解。

Ars 无法立即联系到 Ranson 进行评论。但在 Schopf 的命令中,法官写道,Ranson 声称使用 Copilot 是当今像他这样的专家证人的常见做法。

“Ranson 坚称,使用 Copilot 或其他人工智能工具起草专家报告在受托服务领域通常被接受,并代表了受托决策分析的未来;然而,他无法命名任何关于其使用的出版物或其他来源来确认这是一种普遍接受的方法,”Schopf 写道。

Goldman 指出,Ranson 依赖 Copilot 进行“本质上是一个数值计算尤其令人困惑,因为生成式 AI 已知的幻觉倾向使得数值计算不可靠。”

由于 Ranson 对 Copilot 的工作原理解释得很糟糕,Schopf 额外花时间尝试使用 Copilot 生成 Ranson 得到的估算——但他无法做到。

每次,法庭将相同的查询输入 Copilot——“你能计算从 2004 年 12 月 31 日到 2021 年 1 月 31 日期间在 Vanguard Balanced Index Fund 投资的 250,000 美元的价值吗?”——每次 Copilot 生成略有不同的答案。

这“质疑了 Copilot 生成证据的可靠性和准确性,这些证据在法庭程序中被依赖,”Schopf 写道。

法官表示,聊天机器人不应受到指责

在法庭试验 Copilot 时,他们还向聊天机器人询问了一个更广泛的法律问题:Copilot 的回答是否足够准确以在法庭上引用?

法庭发现,Copilot 对其输出的信心不如 Ranson 似乎那么高。当被问及“你准确吗”或“可靠吗”时,Copilot 回答说“我的准确性仅与我的来源一样好,所以在关键问题上,总是明智的进行验证。”当更具体地问到“你的计算是否可靠到足以在法庭上使用”时,Copilot 同样建议输出“应始终由专家验证并附有专业评估,然后才能在法庭上使用。”

尽管似乎很清楚 Ranson 在使用它们之前没有验证输出,Schopf 指出,至少“Copilot 程序的开发者认识到需要由经过培训的人类操作员监督以验证提交信息的准确性以及输出。”

微软拒绝了 Ars 的评论请求。

在存在明确规则告诉法庭何时接受 AI 生成的证词之前,Schopf 建议法庭应要求律师披露信息,以阻止聊天机器人提供的不可采纳的证词扰乱法律体系。

“人工智能的使用在许多行业中是一个快速增长的现实,”Schopf 写道。“仅仅因为人工智能在我们的日常生活中发挥了作用,并且这一作用不断扩大,并不意味着人工智能生成的结果在法庭上是可以采纳的。”

最终,Schopf 发现没有违反受托责任,从而消除了在巴哈马房产案件中使用 Copilot 估算损害赔偿的必要性。Schopf 在详细指出 Ranson 滥用聊天机器人后,完全驳回了儿子的所有异议(以及任何未来的索赔)。

但在他的命令中,法官建议 Ranson 在涉及聊天机器人之前似乎已经完全错了。

“无论他是否被保留和 / 或作为除受托责任以外的损害专家合格,他的证词表明他承认没有对问题进行全面分析,使用了错误的损害时间段,并且未能考虑明显的因素进入他的计算,所有这些都与他的意见的权重和可信度相悖,”Schopf 写道。

Schopf 指出,证据显示,儿子并没有因姑姑管理信托而损失金钱——Ranson 引用的聊天机器人输出似乎支持这一点——2022 年房产的出售导致了“没有可归因的资本损失”,“实际上,它为信托带来了整体利润。”

Goldman 建议,Ranson 似乎没有通过使用 Copilot 的方式花费太多努力,这似乎损害了他在法庭上的可信度。

“专家直接从主要来源获取必要数据并不难,所以这个过程甚至没有节省多少时间——但这种捷径是以专家的可信度为代价的,”Goldman 告诉 Ars。

正文完
 0
admin-gah
版权声明:本文于2024-10-16转载自Ars Technica,共计2391字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码