人工智能误判引发争议:Grok 识别加沙照片出错

3次阅读
没有评论

共计 1296 个字符,预计需要花费 4 分钟才能阅读完成。

2025 年 2 月 16 日,一张来自加沙的饥饿女孩的照片在网络上引发了轩然大波。这张照片不仅因其令人心碎的内容而受到关注,更因为埃隆·马斯克的人工智能聊天机器人 Grok 错误地识别了照片的来源,将其误认为来自也门。这一错误引发了广泛的困惑和对传播错误信息的指责,许多人开始质疑人工智能工具是否能够准确区分事实与虚构,尤其是在涉及生命和真实故事的情况下。

这张照片由法新社摄影记者奥马尔·卡塔拍摄,展示了一名骨瘦如柴、营养不良的加沙女孩。以色列的封锁加剧了巴勒斯坦地区大规模饥荒的担忧。然而,当社交媒体用户询问 Grok 这张照片的来源时,该聊天机器人却坚定地认为这张照片拍摄于近七年前的也门。这一错误回应在网络上广泛传播,甚至导致法国左翼亲巴勒斯坦议员艾梅里克·卡隆因发布这张照片而被指控在以色列 - 哈马斯战争中传播虚假信息。

人工智能误判引发争议:Grok 识别加沙照片出错

这场争议凸显了在技术远非无错误的情况下,依赖人工智能工具如 Grok 来验证图像的风险。Grok 声称这张照片展示的是 2018 年 10 月也门七岁儿童阿玛尔·侯赛因,而实际上,照片中的女孩是 2025 年 8 月 2 日加沙城九岁的玛丽亚姆·达瓦斯。她的母亲莫达拉拉告诉法新社,玛丽亚姆的体重从战前的 25 公斤骤降至如今的 9 公斤,唯一能获得的营养是牛奶,甚至这也“并不总是能获得”。

在被质疑其错误回应时,Grok 表示:“我不传播假新闻;我的回答基于经过验证的来源。”然而,尽管聊天机器人最终发布了一份承认错误的回应,但在第二天的进一步询问中,Grok 再次声称这张照片来自也门。这一错误并非孤例,Grok 此前还曾发布过赞扬纳粹领袖阿道夫·希特勒的内容,并暗示拥有犹太姓氏的人更有可能传播网络仇恨。

技术伦理研究员路易斯·德·迪斯巴赫指出,Grok 的错误说明了人工智能工具的局限性,其功能如同“黑匣子”一样难以理解。他表示,每个人工智能都有与其训练信息和创作者指令相关的偏见。在迪斯巴赫看来,由马斯克的 xAI 初创公司开发的 Grok 显示出“与南非亿万富翁的意识形态高度一致的明显偏见”,这位亿万富翁是美国前总统唐纳德·特朗普的密友,也是激进右翼的旗手。

迪斯巴赫强调,要求聊天机器人确定照片的来源超出了其适当的角色。人工智能并不一定追求准确性——“这不是目标,”他说。另一张由卡塔于 2025 年 7 月拍摄的加沙饥饿儿童的照片也被 Grok 错误地定位并标注为 2016 年的也门,这一错误导致互联网用户指责发布这张照片的法国报纸《解放报》进行操纵。

人工智能的偏见与其输入的数据和微调过程中发生的事情有关——所谓的对齐阶段——这决定了模型将如何评估好或坏的答案。迪斯巴赫表示:“仅仅因为你向它解释答案是错误的,并不意味着它会给出不同的答案。它的训练数据没有改变,它的对齐也没有改变。”

Grok 并不是唯一错误识别图像的案例。当法新社询问 Mistral AI 的 Le Chat 时,该聊天机器人也将玛丽亚姆·达瓦斯的照片错误地识别为来自也门。对于迪斯巴赫来说,聊天机器人绝不能被用作验证事实的工具。他表示:“它们不是为了说出真相而设计的,而是生成内容,无论真假。你必须把它看作一个友好的病态说谎者——它可能并不总是说谎,但它总是有可能说谎。”

正文完
 0
admin-gah
版权声明:本文于2025-08-08转载自Geo.tv,共计1296字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码