《自然》发布FHIBE数据库:解决AI视觉偏见的新标杆

29次阅读
没有评论

共计 640 个字符,预计需要花费 2 分钟才能阅读完成。

《自然》杂志本周发布了一个名为“公平人类中心图像基准”(Fair Human-Centric Image Benchmark, FHIBE)的数据库,旨在评估以人类为中心的计算机视觉人工智能(AI)模型中的偏见。该数据库由索尼 AI 开发,包含超过 10,000 张人类图像,是一个基于伦理和同意的数据集,能够帮助识别和纠正 AI 模型中的偏见和刻板印象。

计算机视觉技术广泛应用于自动驾驶汽车、面部识别等领域。然而,许多现有的 AI 模型基于有缺陷的数据集开发,这些数据集通常未经同意从网络上大规模抓取图像,并可能反映性别歧视、种族歧视或其他刻板印象。这些问题引发了关于 AI 模型公平性和可信度的广泛讨论。

《自然》发布 FHIBE 数据库:解决 AI 视觉偏见的新标杆

Alice Xiang 及其团队开发的 FHIBE 数据集在多个方面实施了最佳实践,包括同意、多样性和隐私。该数据库包含来自 81 个国家和地区的 1,981 名参与者的 10,318 张图像,并对年龄、代词类别、祖先以及头发和肤色等人口统计和物理属性进行了全面注释。所有参与者均获得了关于项目和潜在风险的详细信息,并提供了知情同意,确保数据集符合全面的数据保护法律。

与现有的 27 个用于人类中心计算机视觉应用的数据集相比,FHIBE 在多样性和同意标准方面设定了更高的要求。该数据集还具备有效的偏见缓解能力,包含更多参与者自我报告的注释,并显著提高了通常代表性不足的个体的比例。作者认为,FHIBE 能够更全面地揭示现有计算机视觉任务中的 AI 偏见,尽管其创建过程具有挑战性且成本高昂,但它可能代表了迈向更可信 AI 的重要一步。

正文完
 0
admin-gah
版权声明:本文于2025-11-07转载自Nature Asia,共计640字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码