共计 652 个字符,预计需要花费 2 分钟才能阅读完成。
最近 BBC 的一项调查引发了我的深思:我们是否过于依赖 AI 来获取信息?作为一个经常使用 ChatGPT 的用户,看到这些数据确实令人震惊。BBC 让几个主流 AI 助手总结新闻,结果发现超过一半的回答都存在明显问题,这个比例高得有些吓人。
调查中特别引人注目的是几个令人啼笑皆非的错误。例如,ChatGPT 将哈马斯领导人的遇害时间说错了整整五个月,这让我想起之前使用 AI 查资料时也遇到过类似情况。还有 NHS 关于电子烟的建议,AI 完全说反了。这些错误看似不大,但如果有人真信了,可能会造成严重后果。
说到这个,我想起上个月用 Copilot 查资料时的一个小插曲。它告诉我某位英国政客还在任,结果我差点在朋友面前闹了笑话。现在看来,这似乎不是个例。BBC 的调查显示,Copilot 和 Gemini 的错误率比 ChatGPT 还高,这让我有点意外。
不过话说回来,AI 助手的问题不仅仅是事实错误。它们似乎很难分清观点和事实,而且经常忽略必要的背景信息。这让我想起前几天看到的一个观点:AI 就像个特别自信的实习生,总是急于给出答案,却常常忽略细节。
BBC 的 Pete Archer 说得挺在理,出版商确实应该有权决定自己的内容怎么被使用。但话说回来,AI 公司也在努力改进。OpenAI 就表示他们正在提高引用的准确性,这让我对未来的发展还是抱有一些期待的。
总的来说,这项调查提醒我们,虽然 AI 助手很方便,但还是要保持警惕。毕竟,在这个信息爆炸的时代,准确性和可信度比什么都重要。下次用 AI 查资料时,我可能会多留个心眼,多核实一下信息来源。你说呢?