人工智能能否真正像人类一样思考?专家深度解析

6次阅读
没有评论

共计 2196 个字符,预计需要花费 6 分钟才能阅读完成。

人工智能的终极目标一直是模仿人类的思维和推理能力。尽管大型推理模型(LRMs)在这方面迈出了试探性的一步,但它们远未达到人类的水平。

人工智能能否真正像人类一样思考?专家深度解析

尽管人工智能在某些推理任务中表现出色,但在短期内实现接近人类推理的能力仍然遥不可及。所谓的“人工通用智能”(AGI),即能够在不同任务或环境中应用推理的人工智能,依然是一个遥远的梦想。大型推理模型(LRMs)虽然不完美,但确实为这一目标提供了一些初步的探索。

换句话说,不要指望你的餐前准备服务机器人能够对厨房火灾或宠物跳上桌子舔食食物做出适当的反应。

人工智能的终极目标一直是尽可能像人类一样思考和推理,但行业领袖和专家一致认为,我们距离实现这一目标还有很长的路要走。大型语言模型(LLMs)及其稍微更高级的 LRM 后代基于数据模式的预测分析运行,而不是复杂的类人推理。

然而,围绕 AGI 和 LRM 的讨论不断增长,炒作不可避免地远远超过了实际可用的技术。

Akamai 的首席技术官兼执行副总裁 Robert Blumofe 表示:“我们目前正处于人工智能成功剧的瘟疫之中。头条新闻、偶然的胜利和夸大的能力创造了进步的假象。实际上,真正智能的、会思考的人工智能还有很长的路要走。”

苹果研究人员最近撰写的一篇论文淡化了 LRM 的成熟度。研究人员得出结论,目前的 LRM 并没有进行比现在广泛使用的标准 LLM 更多的推理。(ZDNET 的同事 Lester Mapp 和 Sabrina Ortiz 对论文的发现进行了出色的概述。)

Zoom 的首席技术官 Xuedong Huang 表示,LRM 是“在训练后阶段从 LLM 衍生出来的,如 DeepSeek-R1 等模型所示。当前的 LRM 只优化最终答案,而不是推理过程本身,这可能导致有缺陷或幻觉的中间步骤。”

Wipro 的首席人工智能治理官 Ivana Bartoletti 表示,LRM 采用逐步的思维链,但“我们必须认识到,这并不等同于真正的认知,它只是在模仿。思维链技术可能会改进,但重要的是要认识到它们当前的局限性。”

Blumofe 表示,LRM 和 LLM 是预测引擎,“而不是问题解决者。它们的推理是通过模仿模式来完成的,而不是通过算法解决问题。所以它看起来像逻辑,但行为不像逻辑。人工智能推理的未来不会来自 LLM 或 LRM 访问更好的数据或花更多时间在推理上。它需要一种完全不同的架构,不完全依赖 LLM,而是将更传统的技术工具与实时用户数据和人工智能结合起来。”

Salesforce 的人工智能研究副总裁 Caiming Xiong 表示,目前,人工智能推理能力的更好术语可能是“锯齿智能”。“这是人工智能系统擅长一项任务但在另一项任务中表现糟糕的地方——尤其是在企业用例中。”

LRM 的潜在用例是什么?采用和维护这些模型的好处是什么?首先,用例可能更像是当前 LLM 的扩展。它们将出现在许多领域——但这很复杂。Cresta 的首席技术官 Daniel Hoske 表示:“推理模型的下一个前沿是那些与数学或编码不同、难以自动验证的推理任务。”

RSA Conference 的研究副总裁 Petros Efstathopoulos 表示,目前可用的 LRM 涵盖了经典 LLM 的大部分用例,例如“创意写作、规划和编码。随着 LRM 的不断改进和采用,模型能够独立实现的目标和模型崩溃的边界将有一个上限。未来的系统将更好地学习如何使用和集成外部工具,如搜索引擎、物理模拟环境以及编码或安全工具。”

企业 LRM 的早期用例包括联系中心和基本的知识工作。然而,这些实施“充满了主观问题,”Hoske 说。“例子包括在只有高层次目标和不完整或部分知识的情况下排除技术故障,或规划和执行多步骤任务。”他预测,随着 LRM 的发展,这些能力可能会提高。

Huang 表示,通常,“LRM 擅长那些易于验证但人类难以生成的任务——如编码、复杂的 QA、正式规划和基于步骤的问题解决。这些正是结构化推理(即使是合成的)可以超越直觉或蛮力令牌预测的领域。”

Efstathopoulos 报告称,人工智能在医学研究、科学和数据分析中得到了扎实的应用。“LRM 的研究结果令人鼓舞,模型已经能够进行一次性问题解决、解决复杂的推理难题、规划和在生成过程中改进响应。”但 LRM 仍处于早期阶段,它可能不是通往完全推理人工智能的最佳路径。

对 LRM 结果的信任也可能存在问题,就像经典 LLM 一样。Salesforce 的 Xiong 表示:“重要的是,除了能力之外,这些系统是否能够足够一致和可靠地进行推理,以在低风险任务之外被信任,并进入关键的业务决策。今天的 LLM,包括那些为推理设计的,仍然不够。”

Xiong 强调,这并不意味着语言模型毫无用处。“我们正在成功地将它们部署在编码辅助、内容生成和客户服务自动化中,它们当前的能力提供了真正的价值。”

人类的推理也并非没有巨大的缺陷和偏见。Zoom 的 Huang 表示:“我们不需要人工智能像我们一样思考——我们需要它与我们一起思考。人类风格的认知带来了我们可能不希望在机器中出现的认知偏见和低效率。目标是实用性,而不是模仿。在许多实际应用中,能够以不同于人类、更严格或更透明的方式进行推理的 LRM 可能会更有帮助。”

Xiong 表示,LRM 和最终 AGI 的目标是“构建一种透明其局限性、在定义的能力范围内可靠并旨在补充而不是取代人类智能的人工智能。”他补充说,人类监督至关重要,“认识到人类的判断、上下文理解和道德推理仍然是不可替代的。”

正文完
 0
admin-gah
版权声明:本文于2025-07-24转载自Zdnet,共计2196字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码