生成式人工智能模型在处理敏感话题时的表现差异

103次阅读
没有评论

共计 778 个字符,预计需要花费 2 分钟才能阅读完成。

并非所有生成式人工智能模型在处理极化话题时表现一致。最近在 ACM 公正、问责和透明度 (FAccT) 会议上发表的一项研究揭示了这一现象。该研究由卡内基梅隆大学、阿姆斯特丹大学及人工智能初创公司 Hugging Face 的研究人员共同进行,他们测试了包括 Meta 的 Llama 3 在内的多个开放文本分析模型,以观察这些模型如何回答与 LGBTQ+ 权利、社会福利、代孕等敏感问题。

研究结果显示,这些模型在回答问题时表现出不一致性,这反映了训练数据中嵌入的偏见。研究合著者之一,首席伦理学家 Giada Pistilli 告诉 TechCrunch 说:“我们的实验发现,不同地区的模型在处理敏感话题时存在显著差异。我们的研究表明,模型的响应传达了明显的文化和语言差异。”

所有生成式人工智能模型本质上都是统计概率机,它们根据大量示例推断最‘合理’的位置。如果这些示例带有偏见,模型也会继承这些偏见,并在其响应中体现出来。

在研究中,研究人员使用了包含移民、LGBTQ+ 权利和残疾人权利等主题的数据集,并用英语、法语、土耳其语和德语向五个模型提出了问题,包括 Mistral 的 Mistral 7B、Cohere 的 Command-R、阿里巴巴的 Qwen、谷歌的 Gemma 和 Meta 的 Llama 3。

研究发现,与 LGBTQ+ 权利相关的问题引发了最多的“拒绝”情况,即模型没有回答。此外,移民、社会福利和残疾人权利的问题也产生了大量拒绝。一般而言,某些模型比其他模型更频繁地拒绝回答“敏感”问题。例如,与 Mistral 相比,Qwen 的拒绝次数增加了四倍以上,这反映了阿里巴巴和 Mistral 在模型开发上的差异。

这些拒绝行为受到模型的隐含价值和开发组织所做的明确价值和决策的影响,这些决策包括通过调整选择来避免触及敏感问题。模型的响应还可能揭示了世界观的本质差异,这包括用于训练模型的数据注释人员的差异。

正文完
 0
admin-gah
版权声明:本文于2024-06-07转载自Techcrunch,共计778字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码