印度首席大法官警示AI风险:篡改视频引发司法系统关注

22次阅读
没有评论

共计 1136 个字符,预计需要花费 3 分钟才能阅读完成。

印度首席大法官 BR Gavai 于本周一公开表示,他已注意到社交媒体上流传的一段篡改视频,该视频虚假地描绘了在其法庭上发生的扔鞋事件。这一事件引发了对人工智能(AI)在司法系统中潜在风险的广泛关注。

由首席大法官 BR Gavai 和法官 K Vinod Chandran 组成的法庭正在审理一项令状请愿,该请愿旨在制定指导方针或政策,以规范 AI 在印度司法系统中的使用。在听证会上,请愿方的律师指出,尽管 AI 工具在法庭程序中越来越普遍,但它们伴随着潜在的风险和缺点。

 印度首席大法官警示 AI 风险:篡改视频引发司法系统关注

“即使是本法庭也在使用 AI,但其弊端是——”律师开始说道,这时首席大法官插话道:“我们对此很清楚,我们已经看到了关于我们两人的篡改视频”——他指的是在网上流传的伪造视频。法庭现已将此案安排在两周后进一步审理。,

为何需要关于 AI 使用的法规?

请愿书详细解释了生成式 AI(GenAI)的使用问题。GenAI 采用机器学习(ML),成为 AI 的一个子集。通过 ML,AI 可以通过识别模式和进行推断来自动学习,而不是从操作员那里接收直接指令。ML 的工作原理是让计算机从数据和经验中学习,以发现模式和预测,而无需为每个任务进行显式编程。由于机器无法“自行学习”,因此数据化过程发生,该过程增殖 / 倍增了用于集成、分析和显示数据模式的数字工具。这种“数据化”过程对于数据的质量、所有权和管理至关重要,往往会在算法本身中嵌入“系统性偏见”,从而使结果带有偏见。

请愿书进一步指出,虽然司法数据需要无偏见且归其作者(法官)所有,但 GenAI 却存在一个称为“数据不透明性”的红旗。请愿书强调,整合到司法和司法职能中的 AI 应具有无偏见的数据,并且数据所有权应足够透明,以确保利益相关者的责任。这种整合的最大红旗之一是数据不透明性。

在技术术语中,“黑箱”一词用于表示一种本质上不透明的技术系统,其内部工作原理或底层逻辑无法被正确理解,或其输出和效果无法解释。这使得检测有缺陷的输出变得极其困难,特别是在以无监督方式发现底层数据模式的 GenAI 系统中。这种算法的“黑箱”特性意味着,即使是其创建者也可能无法完全理解内部逻辑,从而产生任意性和歧视的风险,这些风险甚至无法被控制或为创建者所知。

请愿书还强调,在司法工作中使用 GenAI 可能会导致更高的网络攻击风险。黑箱过程可能会导致 GenAI 在创建数据时产生“幻觉”,从而产生虚假的案例法和 AI 修改的法庭观察结果,这些结果可能并不准确。因此,听证会和决策过程将被任意改变,违反第 14 条。它还将违反公民根据第 19 条享有的知情权,这是第 19(1)(a) 条言论自由权的一部分。

该请愿书是在 AOR Abhinav Shrivastava 的协助下提交的。案件详情:RAWAL 诉印度联邦 |W.P.(C) No. 001041 / 2025。

正文完
 0
admin-gah
版权声明:本文于2025-11-11转载自Live Law,共计1136字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码