AI成为“真理之神”?记者的困惑与担忧

62次阅读
没有评论

共计 2654 个字符,预计需要花费 7 分钟才能阅读完成。

作为一名记者,我见过太多让人瞠目结舌的事情,但最近发生的一件事,真的让我感到无比沮丧。你可能也注意到了,那就是——** 诉诸 AI**。,

AI 的盲目崇拜现象

这现象其实很简单:有人在网上发帖,或者在现实生活中得意洋洋地说:“我问了 ChatGPT。”然后,他们就开始引用 AI 的回答,仿佛那是无可辩驳的真理。比如,有人问 ChatGPT 自己得了什么神秘疾病,或者让 AI 给出“严厉的爱”建议,甚至还有人用 ChatGPT 设计护肤程序。最离谱的是,有人居然用 AI 来论证“与上帝关系疏远”的逻辑,完全忽略了爱的本质和自由意志这些核心问题。还有那些政府机构数量的例子,直接引用 AI 的回答,仿佛 AI 比政府自己还清楚。

AI 成为“真理之神”?记者的困惑与担忧

虽然不是每个人都说“我问了 ChatGPT”,但这种行为的核心是一样的:人们盲目相信一个技术系统,而这个系统根本不是为解决他们的问题而设计的。然后,他们还期望别人也相信 AI 的回答。每次我看到这种行为,心里都会冒出一个念头:** 你是不是疯了?** 说实话,每次听到“我问了 ChatGPT”,我就直接放弃了,不想再听那个人说什么。这种行为在我看来,就是一种逻辑谬误,和“稻草人”、“人身攻击”之类的没什么区别。,

为什么人们会诉诸 AI?

但问题是,这种诉诸 AI 的现象越来越频繁,我开始不得不认真思考:为什么人们会这么做?

首先,我觉得这些例子背后有些悲伤。比如,那个问 ChatGPT 自己得了什么病的人,可能是因为他们无法从医生那里得到足够的关注和答案,所以转向了 AI。而在“严厉的爱”建议的例子中,提问者对 AI 的回答感到“震惊和惊讶”,尽管那些建议不过是些老生常谈的废话,甚至还不如你在电台情感节目里听到的。至于护肤程序,可能就是从某本杂志上抄来的,根本没什么特别的。

至于那个关于诅咒的论点,我只能说:** 地狱是真实的,我已经在这里了。**,

AI 的不可靠性

ChatGPT 这类大型语言模型,本质上是通过分析大量数据,预测出对某个问题的可能回答。它的回答听起来很自信,也很详细,但这并不意味着它是正确的。尤其是对于那些开放性问题,比如爱情建议或护肤程序,AI 给出的答案往往是通用的,因为无数的在线文章已经给出了类似的建议。

问题是,ChatGPT 并不可靠。它的回答听起来很权威,但实际上可能是错的。人们很容易被这种自信的语气迷惑,尤其是当他们自己也有确认偏见时。我已经写过很多关于人们如何盲目相信自动预测系统的文章,尽管这些问题一再出现,但人们依然继续依赖这些系统。,

信任的建立与滥用

如何建立信任,这是一个复杂的问题。作为一名记者,我喜欢展示我的工作过程,告诉读者我是如何确认某个信息的。但在某些情况下,信任只是一种启发式方法,容易被滥用。比如,在金融欺诈中,人们可能会因为某个风险投资基金的存在,就认为其他基金也经过了充分的尽职调查,结果跳过了自己的调查过程。

诉诸 AI 的人,往往是因为他们绝望了,或者纯粹是懒惰。比如,那个问 ChatGPT 自己得了什么病的人,可能是因为他们找不到人类的答案,所以转向了 AI。而那个寻求爱情建议的人,我真想知道他们是怎么在生活中走到这一步的——他们是怎么没有朋友的?那些朋友难道没有观察到他们与其他人的互动吗?至于那个关于诅咒的论点,简直让人无语。,

AI 的注意力奖励与 Google 的影响

诉诸 AI 的行为,和那些让 ChatGPT 数“草莓”中有多少个“r”字母的行为不同。后者更像是在测试 AI 的极限,而前者则是完全依赖 AI 的回答,仿佛 AI 是一个魔法答案盒。有些人可能会说:“我问了 ChatGPT,如果它是错的,我不能负责。”这种态度显然是懒惰的。而另一种态度则更令人担忧:他们真的相信 AI 是无所不知的。

Sam Altman 和 Elon Musk 这些人,对这种现象负有责任。我们听了多久他们说 AI 很快就能思考,甚至超越人类?他们告诉你 AI 可以思考,你为什么不相信他们?而且,如果他们是对的,世界不是更酷吗?

诉诸 AI 的行为还有一个很大的注意力奖励。比如,Kevin Roose 的那个关于 Bing 聊天机器人的故事,虽然轻信且俗气,但确实引起了广泛的关注。在社交媒体上,人们为了吸引互动,往往会把诉诸 AI 的行为放在最前面。如果你为愚蠢行为提供社交奖励,人们就会参与愚蠢行为。这就是时尚的工作原理。

还有一件事,那就是 Google。Google 搜索曾经是一个很好的在线目录,但如今,它越来越像一个水晶球,提供唯一的真实答案。在生成 AI 兴起之前,Google 的 Snippets 功能就已经在推动这种趋势,而现在,AI 答案的整合更是将这一趋势推向了新的高度。

不幸的是,对于 Google 来说,ChatGPT 是一个更好看的水晶球。比如,如果你想更换雨刷上的橡胶,Google 搜索的结果可能会显示一堆乱七八糟的信息,从 AI 的概述开始,然后是 YouTube 视频、Reddit 论坛答案,等等。而 ChatGPT 则提供了一个更干净的布局,直接给出步骤和子标题,仿佛它是一个权威的专家。,

AI 与权威的混淆

诉诸 AI 是 Arthur Clarke 定律的完美例子:“任何足够先进的技术都与魔法无异。”LLM 背后的技术足够先进,因为使用它的人没有费心去理解它。结果就是,人们依赖生成 AI,只得到了捏造的结果。无论有多少这样的故事——无论是假总统赦免、伪造的引用、虚构的案例法还是编造的电影引述——它们似乎都没有影响。

这个机器是胡说八道——在哲学意义上——似乎并不困扰许多提问者。LLM 的本质无法确定它所说的是真是假。它无法访问实际世界,只能通过 tokens“看到”世界的书面表示。

因此,诉诸 AI 就是诉诸权威的标志。ChatGPT 听起来自信,即使它不应该,它的答案详细,即使它们是错误的。界面干净。你不必对点击哪个链接做出判断。一些有钱人告诉你这很快就会比你聪明。一个《纽约时报》的记者正在做这件事。所以为什么还要思考,当电脑可以为你做这件事时?

我无法判断这是轻信的信任还是纯粹的奢侈虚无主义。在某种程度上,“机器人会告诉我真相”和“没有人会修复任何东西,Google 也是错的,所以为什么不相信机器人”是一样的:对人类努力的缺乏信仰,对人类知识的蔑视,以及无法信任我们自己。我忍不住觉得这会走向非常黑暗的地方。

在这个时代,也许相信电脑里有一个魔法答案盒,它完全权威,就像我们老朋友德尔斐的 Sibyl 一样,很容易。如果你相信电脑是无所不知的,你就准备好相信任何事情。事实证明,未来一直被 Jean Baudrillard 预测:当我们有标志时,谁需要现实?现实对我做了什么?

正文完
 0
admin-gah
版权声明:本文于2024-12-24转载自TheVerge,共计2654字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码