ChatGPT在法律文件中的误用:专家承认引用错误

65次阅读
没有评论

共计 678 个字符,预计需要花费 2 分钟才能阅读完成。

在最近的一起法律纠纷中,一位错误信息研究专家承认,他在准备法庭文件时使用了 ChatGPT,结果导致文件中出现了一些虚假的引用细节。这些所谓的“幻觉”让文件的可信度大打折扣。斯坦福社交媒体实验室的创始人 Jeff Hancock 是这份文件的作者,他坚称这些错误并没有改变文件的核心观点。

Hancock 的这份宣誓书是为了支持明尼苏达州的一项法律,该法律旨在防止使用深度伪造技术影响选举。这项法律目前正受到一位名叫 Christopher Khols 的保守派 YouTuber 和明尼苏达州众议员 Mary Franson 的挑战。在发现 Hancock 的文件中似乎包含了一些不存在的引用后,Khols 和 Franson 的律师认为这份文件“不可靠”,并要求法庭不予考虑。

ChatGPT 在法律文件中的误用:专家承认引用错误

在上周提交的一份后续声明中,Hancock 坦白了他使用 ChatGPT 来帮助整理引用,但否认使用它来撰写文件内容。他表示,文件的内容是他亲自撰写的,并且经过了仔细审查。Hancock 强调,他完全支持文件中的每一个主张,这些主张都基于最新的学术研究,并反映了他作为专家对 AI 技术在错误信息传播中的影响的看法。

关于那些引用错误,Hancock 解释说,他使用 Google Scholar 和 GPT-4o 来识别可能相关的文章,以便将已知的信息与新的学术研究结合起来。他使用 GPT-4o 生成了一个引用列表,但并未意识到该工具生成了两个错误的引用,其中一个还错误地添加了作者信息。

Hancock 在最近的文件中写道:“我无意误导法庭或律师,对于可能造成的任何混乱,我表示诚挚的歉意。尽管如此,我依然坚定地支持文件中的所有实质性观点。”

正文完
 0
admin-gah
版权声明:本文于2024-12-05转载自TheVerge,共计678字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码