苹果生成式AI系统引发争议:虚假信息问题亟待解决

57次阅读
没有评论

共计 894 个字符,预计需要花费 3 分钟才能阅读完成。

最近,苹果公司新推出的生成式 AI 系统在英国上线后引发了广泛争议。该系统在不到两天的时间内,错误地总结了一条 BBC 的新闻通知,将一起与 UnitedHealthcare 首席执行官有关的枪击案,错误地关联到了一个叫 Luigi Mangione 的人的自杀事件上。这一低级错误让不少新闻自由倡导者感到不安,他们纷纷呼吁苹果公司尽快撤下这个“不成熟”的 AI 系统。

无国界记者组织(RSF)也对此事发表了看法,指责苹果的 AI 系统生成了虚假信息,进一步证明了人工智能在处理公众信息方面的不可靠性。RSF 认为,这种 AI 系统根本无法保证信息的高质量,更别提成为新闻媒体可信赖的技术。他们甚至直接要求苹果从操作系统中移除这个功能,认为 AI 在当前阶段根本不适合用于这种面向公众的解决方案。

苹果生成式 AI 系统引发争议:虚假信息问题亟待解决

RSF 的技术和新闻部门负责人 Vincent Berthier 更是直言不讳:“事实不能靠掷骰子来决定。”他呼吁苹果负起责任,尽快移除这个功能。在他看来,自动生成虚假信息不仅损害了媒体机构的可信度,还威胁到了公众获取可靠时事信息的权利。

不过,苹果目前似乎还没有明确的解决方案。BBC 已经向苹果提出了投诉,但苹果拒绝公开回应此事。更让人担忧的是,这似乎并不是苹果 AI 系统第一次犯这种错误。BBC 还指出,早在 11 月,苹果的 AI 系统就曾错误地将以色列总理 Benjamin Netanyahu 的逮捕新闻(实际上并未发生)归因于《纽约时报》。这让人不禁怀疑,苹果的 AI 系统是不是对每日头条新闻有着某种“误解”倾向。

与此同时,谷歌的 AI 搜索结果也曾闹出过类似的笑话,比如建议用户把奶酪粘在披萨上,甚至建议吃石头。这些例子都让人对 AI 在信息生成方面的可靠性产生了深深的怀疑。

Berthier 还提到,尽管《欧洲 AI 法案》是全球在这一领域最先进的立法,但它并没有将信息生成型 AI 归类为高风险系统,留下了法律上的空白。他认为,这个空白必须尽快填补,否则 AI 在信息生成方面的滥用可能会带来更大的问题。

目前,《The Register》已经联系了苹果和 RSF,试图了解苹果是否会采取措施解决这个问题,以及 RSF 是否收到了苹果的回应,但双方都还没有给出明确的答复。

正文完
 0
admin-gah
版权声明:本文于2024-12-22转载自Theregister.com,共计894字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码