BBC测试AI新闻摘要能力:ChatGPT等主流工具表现如何?

44次阅读
没有评论

共计 677 个字符,预计需要花费 2 分钟才能阅读完成。

最近 BBC 进行了一项引人注目的研究,测试了几款主流 AI 聊天机器人在新闻摘要方面的表现。结果显示,这些 AI 工具的表现令人意外,也引发了对新闻准确性的深入思考。

BBC 邀请了 OpenAI 的 ChatGPT、微软的 Copilot、谷歌的 Gemini 以及 Perplexity AI 参与测试,要求它们对 BBC 网站上的新闻内容进行摘要。测试结果令人担忧:超过一半的回答存在明显问题,其中约五分之一甚至出现了事实性错误。这不禁让人想起上个月使用 ChatGPT 查询资料时,它将已卸任的英国首相误认为在任的情况。

BBC 测试 AI 新闻摘要能力:ChatGPT 等主流工具表现如何?

BBC 新闻主管黛博拉·特内斯指出,虽然 AI 带来了诸多机遇,但当前技术仍不够成熟。她强调,如果 AI 持续歪曲新闻事实,可能会带来严重后果。对此,OpenAI 回应称,每周有 3 亿用户使用 ChatGPT,他们正在努力提高准确性。

测试中发现的错误相当具体。例如,Gemini 错误地表示 NHS 不建议使用电子烟戒烟,这与事实完全相反。Perplexity 在中东新闻中将伊朗描述为“克制”,而将以色列描述为“侵略性”,这种明显的倾向性令人担忧。

尽管如此,这些 AI 的表现并非全无亮点。微软的 Copilot 和谷歌的 Gemini 问题较多,而 ChatGPT 和 Perplexity 相对表现较好。去年 12 月,BBC 开放网站供这些 AI 抓取内容进行测试,发现它们不仅会搞错事实,还经常混淆观点与事实,缺乏必要的背景信息。

总的来说,BBC 的 AI 项目主管认为,出版商应对自己的内容拥有更多控制权。AI 公司也应更透明地展示其系统如何处理新闻以及可能犯的错误。毕竟,在这个信息爆炸的时代,新闻准确性至关重要。

正文完
 0
admin-gah
版权声明:本文于2025-02-12转载自BBC News,共计677字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码