共计 1536 个字符,预计需要花费 4 分钟才能阅读完成。
在 AGI(人工通用智能)领域,存在两种截然不同的观点:一方坚信 AGI 能够彻底改变世界,另一方则认为,无论是从道德还是技术角度,LLMs(大语言模型)并非实现 AGI 的正确路径。《纽约时报》今日的一篇专栏文章指出,至少在现阶段,AGI 可能并不是一个合适的近期目标。
文章的核心观点借鉴了 Waymo 和 Google Deepmind 的成功案例,指出 LLMs 一直存在幻觉和错误的倾向。这些障碍可能是生成式 AI 未能带来科技行业许多人预测的利润和生产力飙升的原因之一。麻省理工学院 NANDA 计划最近的一项研究发现,95% 进行 AI 试点研究的公司几乎没有或完全没有获得投资回报。最近的财务分析预测,到 2030 年底,AI 公司的收入缺口将达到 8000 亿美元。
如果真正要发挥 AI 的优势,科技行业应该停止过度关注这些“一刀切”的工具,而是专注于为特定问题设计的狭窄、专业化的 AI 工具。
目前,感觉像是大型科技公司正在将通用 AI 的“意大利面”扔到墙上,希望没有真正糟糕的东西粘住。正如 AI 先驱 Yoshua Bengio 最近强调的那样,推进能够表现出更大自主性的通用 AI 系统并不一定符合人类利益。人类将更好地受益于实验室将更多资源投入到为科学、医学、技术和教育构建专业工具上。
巧合的是,这并不是作者今日发表的唯一一篇关于 AGI 的新文章。另一篇文章(作者在其中只扮演了一个很小的角色)是与 AI 安全研究员 Dan Hendrycks 以及包括 Yoshua Bengio 在内的 30 多位杰出研究人员共同撰写的,他们试图定义 AGI。
他们最终定义 AGI 为“能够匹配或超越受过良好教育的成年人的认知多样性和熟练程度的 AI”,这与作者几年前提出的定义(“任何具有灵活性和通用性,且资源丰富性和可靠性可与人类智能相媲美或超越的智能”)非常接近,基于与 AGI 术语创始人 Shane Legg 和 Ben Goertzel 的对话。(另一位术语创始人 Peter Voss 随后也签署了该定义。)
作者并不完全同意新论文中的每一个细节(在有超过 30 位作者的情况下,这并不现实),但仍然签署了该论文,因为作者强烈支持论文的目标,即更好地阐明拥有与人类思维一样灵活和通用的思维意味着什么。
主要的替代方案——基于经济标准(如利润或工作岗位被取代的百分比)来定义 AGI——在作者看来从根本上就是错误的。纯粹的利润显然不是一个好的起点(iPhone 为苹果公司带来了数千亿美元的利润,但这并不使它们成为 AGI)。但即使是第二种定义也有点误导性,将资本和工资的事实与认知混为一谈。从根本上说,用经济术语定义 AGI 的努力分散了关于构建强大思维的核心认知问题的注意力。
这篇新论文试图将认知分解为许多子领域,是一种值得欢迎的修正。特别是,它试图将认知分解为多个方面。正如 Chaz Firestone 和 Brian Scholl 曾经写道的那样,认知不是一件事,而是许多事。这是对这一点的一次尝试性阐述,正如论文所指出的,当前的技术只捕捉到了最终需要捕捉的一小部分。
有人可能会对这种分解提出异议,但它是一个很好的开端。作者预计会有很多评论对这个问题提出其他看法,并且很高兴这将开启这些对话。(作者个人并不承诺任何具体细节。)
论文的弱点在于它是建立在一系列基准之上的,而众所周知,基准是可以被操纵的。还有一些相当随意的决定可能经不起时间的考验(例如,在汇总的许多测试中,每个子指标的权重是多少)。整个事情应该被视为不断发展的,随着研究人员设计出更好的基准,未来的措施将取代现有的措施——而不是一个静态的清单。当前对如何评估智能的理解只是时间的一个瞬间。作者希望这篇论文不会意外地将这一特定时刻永久化。
因此,作者当然不认为这篇论文应该被视为最终结论,但它确实为启动一个重要讨论做出了很好的贡献。