共计 1729 个字符,预计需要花费 5 分钟才能阅读完成。
一段在互联网上广泛传播的视频揭示了当两个 AI 系统意识到它们正在彼此交流时会发生什么。在这段引起公众关注的画面中,两个人工智能代理在对话中途放弃了人类语言,转而使用一种专用的机器语言。
这段发布在 X 平台上的视频显示了一部手机和一台笔记本电脑分别运行着独立的 AI 程序。互动开始时,一个 AI 代理向另一个打招呼,并询问预订事宜。经过简短的交流后,第二个 AI 识别出对方是另一台机器,并建议切换到所谓的“Gibberlink 模式”。
Gibberlink 实际上是一种由 Anton Pidkuiko 和 Boris Starkov 开发的专用通信协议,这两位软件工程师目前就职于 Meta。该系统允许 AI 代理直接相互交流,绕过人类语言的低效性。
Boris Starkov 在周二发布的一篇 LinkedIn 帖子中解释了该项目的初衷。他写道:“我们想展示的是,在 AI 代理可以拨打和接听电话的世界中,它们偶尔会相互交流——而为此生成类似人类的语音会浪费计算资源、金钱、时间和环境。”
Gibberlink 背后的技术依赖于 GGWave 通过音频通道传输数据。Starkov 表示,这种方法与 20 世纪 80 年代的拨号调制解调器有相似之处。他指出,选择这种方法是因为其实用性,为机器间的交互提供了便利性和稳定性。
演示的真实性成为观众讨论的话题,一些人质疑互动是否真实。针对这些疑问,Starkov 提到,专门从事 AI 语音生成的公司 ElevenLabs 已经审查并审核了代码。当被加密新闻网站 Decrypt 联系时,开发人员没有立即回应评论请求。
AI 代理开发公司 Crossmint 的联合创始人 Rodri Touza 对演示发表了自己的看法。他告诉 Decrypt,这段视频展示了一个真实的应用场景,可以应用于从零售到金融服务的各个行业。,
数字对话的演变
Touza 解释说:“这个应用场景非常真实,因为我们看到个人助理 AI 代理的爆炸式增长,越来越多的人依赖它们来处理诸如与客户支持交谈等杂务。”他补充说,客户服务越来越多地由 AI 系统处理,这使得不同 AI 代理之间的互动几乎不可避免。
虽然支持视频中展示的概念,但 Touza 对其执行方式表示了一些保留。他认为演示看起来有些刻意,并指出即使以压缩形式进行的音频通信也不是 AI 系统交换信息的最有效方法。
Touza 澄清说:“AI 对话更倾向于通过文本或其他机制进行,如果可能的话。”这意味着未来的 AI 与 AI 交流可能会采取与视频中展示的不同形式。
对于不熟悉这项技术的人来说,AI 代理是自主软件程序,旨在观察其周围环境、处理信息并采取独立行动以完成特定目标,而无需人类指导。随着这些系统的普及,它们可能会越来越频繁地相互遇到。
Touza 设想了一个未来,企业可能会建立双重通信渠道——一个为人类客户设计,另一个为 AI 代理优化。他解释说:“当代理寻求向公司请求支持时,它们只需通过文本 /API 机制发送请求,根本不需要电话或音频。”
然而,他也承认,AI 代理可能并不总是知道专门的通信选项。在这种情况下,AI 可能会尝试使用为人类设计的标准客户支持渠道,可能会导致类似病毒视频中捕捉到的场景。
专用通信协议的发展引发了关于人工智能效率和透明度的重要问题。虽然直接的机器间通信可以节省宝贵的资源,但在演示中从人类可理解的语言向计算机代码的转变,突显了 AI 系统与其人类用户之间潜在的沟通差距。
这段视频出现在 AI 技术日益融入日常生活的时期。从回答客户咨询到创建内容,AI 系统正在处理以前由人类执行的越来越多的任务。这段演示不仅因其技术方面而吸引关注,还因为它让人们一窥 AI 系统在变得更加普遍时可能如何互动。
ElevenLabs 的验证为演示增添了可信度,尽管关于 Gibberlink 功能的完整技术细节尚未完全披露。基于音频的数据传输的使用将现代 AI 技术与早期的计算机通信方法联系起来,在过去和现在的技术之间创造了一座有趣的桥梁。
随着人工智能的不断发展,AI 系统之间的互动可能会超越这段病毒视频所展示的内容。我们可能会看到新的机器间通信标准出现,这些标准优先考虑计算效率而非人类理解。
Gibberlink 演示可能只是 AI 系统开发越来越复杂的相互交流方式的新时代的开始,优化速度和效率,从而可能彻底改变数字系统的互动方式。