共计 822 个字符,预计需要花费 3 分钟才能阅读完成。
乐谱平台 Soundslice 最近做出了一个令人惊讶的决定:将 ChatGPT 虚构的音乐符号功能变为现实。这一事件不仅展示了 AI 对现实世界的影响,也为企业如何应对 AI 模型的虚构功能提供了新的思考。
事情的起因是,OpenAI 的聊天机器人 ChatGPT 向用户介绍了一个并不存在的功能——导入 ASCII tablature(一种基于文本的吉他符号格式)。尽管 Soundslice 从未支持过该功能,但 ChatGPT 却自信满满地告诉用户可以使用该平台进行导入。这一错误的引导让 Soundslice 的联合创始人 Adrian Holovaty 感到困惑,直到他亲自测试 ChatGPT 后才发现问题的根源。
通常,Soundslice 的主要功能是将乐谱从照片或 PDF 数字化,并将符号与音频或视频录制同步,帮助音乐家在听到音乐播放时看到乐谱滚动。然而,ChatGPT 的虚构功能让用户误以为该平台已经支持 ASCII tablature 的导入,这给 Soundslice 带来了不小的麻烦。
面对这一情况,Soundslice 没有选择发布免责声明,而是决定直接开发这个功能。Holovaty 在博客中写道:“我们最终决定:管它呢,我们不妨满足市场需求。”于是,团队迅速构建了一个 ASCII 标签导入器,并更新了用户界面,告知用户新功能的存在。
这一事件引发了关于产品开发的哲学问题。Holovaty 表示:“我很高兴添加了一个帮助人们的工具。但我觉得我们的手被以一种奇怪的方式强迫了。我们真的应该响应错误信息来开发功能吗?”
ChatGPT 的虚构功能问题并非孤例。自 2022 年 11 月公开发布以来,AI 模型生成虚假信息的问题一直困扰着用户。无论是法律领域的虚假引用,还是航空公司因聊天机器人虚构的政策而被迫赔偿,AI 的“幻觉”问题正在对现实世界产生深远影响。
Soundslice 的案例展示了企业如何从 AI 的漏洞中寻找机会,将错误信息转化为实际功能。这不仅是对 AI 技术的回应,也是对企业创新能力的考验。