共计 982 个字符,预计需要花费 3 分钟才能阅读完成。
人工智能领域正面临一个关键挑战。一项最新的数学研究为当前火热的 AI 智能体发展泼了一盆冷水,揭示了大型语言模型(LLM)在数学和计算层面存在无法逾越的瓶颈。

当前广泛应用的人工智能模型,其底层技术大多基于大型语言模型——一种结合机器学习与语言处理的技术形式。许多 AI 公司都押注于一个观点:只要为 LLM 提供足够的数据,它们就能实现近乎完全的自主性,像人类一样思考与运作,甚至拥有更庞大的知识库。然而,事实证明,对无限增长的期待可能并不现实。
一项由维沙尔·西卡与瓦林·西卡父子研究员共同发表的 最新研究 ,通过严密的数学证明揭示了“LLM 无法执行超越特定复杂度的计算与智能体任务”。这篇论文最初发布时并未引起广泛关注,直到近期经《连线》杂志报道 后才进入公众视野。
该研究的结论虽然简明,但推导过程涉及相当复杂的数学论证。简单来说,研究指出:当向 LLM 提交某些特定提示或任务时,所需的计算复杂度可能超出模型的处理能力;一旦发生这种情况,模型要么无法完成指令,要么会错误执行。这直接对 AI 智能体的发展前景提出了根本性质疑。
这项研究的基本前提,实质上为“智能体 AI”——即那些能够接受多步骤任务并在无人监督下完全自主执行的模型——将成为实现通用人工智能(AGI)载体的观点设定了明确的限制。这并非否定该技术的功能或进步空间,但它为可能性设定的上限,远低于 AI 公司在描绘“天空才是极限”蓝图时愿意承认的程度。
尽管该研究首次用实际数学方法印证了许多 AI 质疑者的直觉,但西卡父子并非首个质疑 LLM 能力上限的学者。去年,苹果公司的研究人员 发表论文,指出 LLM 实际上并不具备真正的推理或思考能力,尽管它们能营造出此类表象。
Cognitive Resonance 公司创始人本杰明·莱利 去年撰文 指出,基于 LLM 的工作原理,它们永远无法真正实现人类所定义的“智能”。其他研究曾测试 LLM 驱动 AI 模型在创新性创作上的极限,结果却令人失望。
若这些观点尚不足以令人信服,而精密的数学方程式更符合你的偏好,那么西卡父子的研究或许能提供所需的证明。所有这些证据逐渐累积,共同表明:无论当前形式的 AI 具备何种能力,它几乎不可能是埃隆·马斯克 近期宣称的 那种将在今年年底超越人类智能的技术。
AI 智能体的数学瓶颈研究提醒我们,在追逐技术突破的同时,也需要正视基础理论的限制。这对未来人工智能的发展方向具有重要的启示意义。