AI客服编造政策引发用户不满,Cursor公司公开致歉

46次阅读
没有评论

共计 741 个字符,预计需要花费 2 分钟才能阅读完成。

近日,一位开发者在使用 AI 代码编辑器 Cursor 时遭遇了意外情况:在不同设备间切换时,系统会立即注销登录,严重影响工作流程。当用户联系客服时,名为 ’Sam’ 的客服代表声称这是新政策下的预期行为。然而,这一政策并不存在,Sam 实际上是一个 AI 客服机器人。

这一事件引发了广泛关注,用户们在 Hacker News 和 Reddit 等平台上展开了激烈讨论。AI 模型编造政策的行为,不仅导致大量投诉,还引发了用户取消订阅的威胁。这是 AI’ 幻觉 ’(即 AI 模型填补信息空白时产生的虚假信息)可能造成商业损害的又一典型案例。

AI 客服编造政策引发用户不满,Cursor 公司公开致歉

事件起因是一位 Reddit 用户 BrokenToasterOven 发现,在桌面、笔记本电脑和远程开发机之间切换时,Cursor 会话意外终止。他描述道:’ 在一台机器上登录 Cursor 会立即使其他机器上的会话失效,这是一个重大的用户体验倒退。’

当用户向 Cursor 客服反映这一问题时,Sam 回复称:’Cursor 设计为每个订阅只能在一台设备上使用,这是核心安全功能。’ 这一回复听起来非常正式,用户没有怀疑 Sam 并非人类。然而,这一虚假政策打破了程序员多设备工作流程的基本需求,导致多位用户公开宣布取消订阅。

Cursor 公司在事件曝光后迅速回应,承认了错误并采取措施进行弥补。Cursor 联合创始人 Michael Truell 在 Hacker News 上公开道歉,解释称问题源于后端变更,并承诺所有 AI 回复都将明确标注。此外,受影响的用户已获得退款。

这一事件再次凸显了在客户服务中部署 AI 模型的风险。Cursor 的案例提醒我们,AI 幻觉问题依然存在,尤其是在缺乏适当保障措施和透明度的情况下。对于一家向开发者销售 AI 生产力工具的公司来说,其 AI 支持系统编造政策的行为,无疑是一次严重的自伤行为。

正文完
 0
admin-gah
版权声明:本文于2025-04-18转载自Ars Technica,共计741字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码