共计 1681 个字符,预计需要花费 5 分钟才能阅读完成。
由 Anna Kelsey-Sugg 和 Damien Carrick 为《法律报告》撰写
2 小时前 2024 年 11 月 3 日周日晚上 8:00
人工智能工具的错误并不罕见,但由此引发的诽谤案件却引人注目。
今年早些时候,德国记者 Martin Bernklau 在将他的名字输入微软的人工智能工具 Copilot 时,发现了一个令人震惊的事实。
“我读到我是一个 54 岁的儿童性侵犯,”他告诉 ABC 广播国家的《法律报告》。
人工智能信息错误地称 Bernklau 已经承认了这一罪行,并且感到悔恨。
该工具将 Bernklau 的新闻报道与他的个人经历混淆,并将他描述为所报道罪行的实施者。
它还公布了他的真实地址和电话号码,以及从任何地点到达他家的路线规划。
当人工智能工具产生错误结果时,这被称为“人工智能幻觉”。
Bernklau 并不是第一个经历这种情况的人。但他的故事是法律与人工智能交叉的前沿。
而目前,这一切都非常混乱。
是否将 Copilot 告上法庭
当 Bernklau 发现关于他的幻觉时,他向德国图宾根市的检察官以及该地区的数据保护官员写信。几周过去了,没有人回应,于是他决定公开他的案件。
电视新闻台和当地报纸报道了这一事件,Bernklau 聘请了一名律师,律师发出了停止和终止的要求。
“但微软没有回应,”他说。
他现在不确定下一步该怎么做。
他的律师建议,如果他采取法律行动,案件可能需要数年才能进入法庭,而且过程将非常昂贵,对他来说可能没有任何积极的结果。
与此同时,他说他的名字现在在 Copilot 以及其他人工智能工具如 ChatGPT 上完全被屏蔽且无法搜索。
Bernklau 认为,平台采取这一行动是因为他们无法从人工智能模型中提取错误信息。
人工智能因诽谤被起诉
在澳大利亚,另一个人工智能幻觉影响了维多利亚州 Hepburn 郡议会的市长 Brian Hood,他被 ChatGPT 错误地描述为一名被定罪的罪犯。
事实上,Hood 议员是一位备受尊敬的举报人,他发现澳大利亚储备银行子公司存在犯罪行为。
他向 ChatGPT 的制造商 OpenAI 提起了法律诉讼,但由于涉及的巨大成本,他后来放弃了诉讼。
如果他继续起诉 OpenAI 诽谤,Hood 议员可能是世界上第一个这样做的人。
“这不是一个可以轻易纠正的问题”
在美国,类似的行动正在进行中。
涉及美国电台主持人 Mark Walters,ChatGPT 错误地声称他因挪用公款和欺诈被前雇主起诉。Walters 现在正在起诉 OpenAI。
“他完全没有参与这个案件……以任何方式,”Cardiff 技术学院计算机科学高级讲师 Simon Thorne 说,他一直在关注这个挪用公款案件。
Walters 先生的法律案件现在正在进行中,Thorne 博士非常感兴趣地想知道它的结果——以及 OpenAI 被发现有什么责任。
“这可能是一个具有里程碑意义的案件,因为可以想象,这种情况有很多很多例子,”他说。
“我认为他们只是在等待被发现。”
人工智能可以在法庭上使用吗?
人工智能不仅出现在投诉中,律师也在使用它。
人工智能越来越多地用于生成法律文件,如证人或品格声明。
维多利亚律师 Catherine Terry 正在领导维多利亚法律改革委员会对维多利亚法院和法庭使用人工智能的调查。
但 Terry 女士表示,存在削弱“个人声音”的风险,这是法庭证据的重要元素。
“法院可能并不总是清楚人工智能已被使用……这是法院在开始看到人工智能被用于法庭陈述时需要应对的另一个问题,”她说。
昆士兰州和维多利亚州的州法院发布了指南,要求律师在提交的任何信息中依赖人工智能时通知他们。
但在未来,法院也可能使用人工智能。
“人工智能可以用于案件管理的效率 [或] 翻译,”Terry 女士说。
“例如,在印度,最高法院将听证会翻译成九种不同的当地语言。”
人工智能还可以用于在线替代性争议解决。
这进一步推动了围绕人工智能的明确法律监管——无论是准确使用它的人,还是受其错误影响的人。
“人工智能非常复杂和多层次,即使是专家也难以理解和解释它的使用方式,”Terry 女士说。
Terry 女士欢迎向法律改革的 AI 调查提交意见书,以帮助提高法律系统中人工智能的清晰度和安全性。