共计 1165 个字符,预计需要花费 3 分钟才能阅读完成。
大型语言模型和其他形式的生成式人工智能正在稳步提升“自我修正”能力,这为它们能够从事的新型工作打开了可能性,包括“代理性 AI”,这是 Anthropic 副总裁的观点。Anthropic 是一家领先的 AI 模型供应商。
https://www.zdnet.com/a/img/resize/20be71d327d38256646f5cdadadc314e6d5323df/2022/08/05/c2f70f95-253a-47e8-969f-8313ff044e89/tiernan-ray.jpg
“它在自我修正和自我推理方面表现得非常出色,”Anthropic 的 API 技术负责人 Michael Gerstenhaber 表示。Anthropic 制造的 Claude 系列 LLM 与 OpenAI 的 GPT 竞争。
Gerstenhaber 在周三与 Bloomberg Intelligence 的 Anurag Rana 在纽约的一次采访中表示:“每隔几个月,我们就会推出一个新模型,扩展 LLM 的能力。”这个行业最有趣的地方在于,每次模型修订都会解锁新的应用场景。
最新的模型包括任务规划,例如如何像人一样在计算机上执行任务;例如,在线订购披萨。Gerstenhaber 表示,这种逐步完成任务的方式在昨天还不可能实现,而今天已经变得可能。
这次讨论还包括 AI 初创公司 Scale AI 的首席技术专家 Vijay Karunamurthy,是 Bloomberg Intelligence 主办的为期一天的会议的一部分,主题是“生成式 AI:它能兑现生产力承诺吗?”
Gerstenhaber 的言论与 AI 怀疑论者的观点相悖,后者认为生成式 AI 以及更广泛的 AI 正在“碰壁”,意味着每一代新模型的回报正在逐渐减少。AI 学者 Gary Marcus 在 2022 年警告说,仅仅增加 AI 模型的参数数量不会带来与规模增加相等的改进。Marcus 继续重申这一警告。
Gerstenhaber 表示,Anthropic 一直在推动当前 AI 基准所能衡量的极限。即使从某些方面来看似乎正在放缓,这是因为我们正在启用全新的功能类别,但我们已经饱和了基准,并且能够完成旧任务。换句话说,衡量当前生成式 AI 模型能力的难度越来越大。
Gerstenhaber 和 Scale AI 的 Karunamurthy 都认为,“扩展”生成式 AI——使 AI 模型更大——正在帮助推进这种自我修正的神经网络。Gerstenhaber 表示:“我们肯定看到了越来越多的智能扩展。”我们不认为在规划和推理方面碰壁的原因之一是我们现在正在学习规划和推理任务需要如何结构化,以便模型能够适应它们尚未尝试过的各种新环境。
Gerstenhaber 表示:“我们仍处于早期阶段。”我们从应用开发者那里学习他们试图做什么,以及语言模型做得不好的地方,我们可以将这些整合到 LM 中。