共计 1789 个字符,预计需要花费 5 分钟才能阅读完成。
近三十年前,Microsoft Office 中的动画回形针 Clippy 因频繁打扰用户而备受诟病,或许它只是超前于时代。如今,微软再次尝试为 AI 助手赋予个性,推出了一个名为 Mico 的新角色。
周四,微软发布了 Mico(发音为 MEE’koh),这是一个漂浮的卡通脸,形状像一团火焰,将作为 Copilot 虚拟助手的形象代表。这一举措标志着科技公司为其 AI 聊天机器人赋予更多个性的最新尝试。
Mico 的出现正值 AI 开发者面临一个关键问题:如何在展示日益强大的聊天机器人时,避免引发用户的反感或伤害。一些公司选择了无脸符号,而另一些如 Elon Musk 的 xAI 则推出了调情的类人化身。微软则试图在两者之间找到平衡,既不谄媚,又保持友好。
“当你谈论一些悲伤的事情时,你可以看到 Mico 的脸发生变化。它也会随着你的兴奋而跳舞和移动,”微软 AI 产品和增长副总裁 Jacob Andreou 在接受美联社采访时表示。“这是为了让这个 AI 伴侣更接地气,让用户能够真正感受到它的存在。”
目前,仅在美国的笔记本电脑和手机应用程序上,Copilot 用户可以与 Mico 互动。在“学习”模式下,Mico 会改变颜色、旋转并戴上眼镜。与微软的 Clippit(更广为人知的名字是 Clippy)不同,Mico 可以轻松关闭。Clippy 因在 1997 年首次出现在桌面屏幕上时不断提供文字处理工具建议而臭名昭著。
“当时它并没有很好地适应用户需求,”麻省理工学院研究科学家 Bryan Reimer 表示。“微软推出了它,我们抵制了它,他们放弃了它。我认为我们今天对类似的东西准备得更充分了。”
Reimer 是一本名为《如何让 AI 有用》的新书的合著者,他指出,AI 开发者正在根据预期用户来平衡 AI 助手的个性。技术娴熟的 AI 编码工具使用者可能希望它“更像一台机器”,而对机器不太信任的用户则更倾向于与感觉更像人类的技术互动。
微软作为工作生产力工具的提供商,与依赖数字广告收入的大型科技公司相比,没有太多动力使其 AI 伴侣过度吸引人。这种方式与社会孤立、有害的错误信息以及在某些情况下的自杀有关。
Andreou 表示,微软已经看到一些 AI 开发者偏离了“给 AI 任何形式的体现”,而另一些人则朝着相反的方向发展,启用了 AI 女友。“这两条路径并没有真正引起我们的共鸣,”他说。
微软的设计目标是让 AI 伴侣“真正有用”,而不是让它“告诉我们我们想听的内容,确认我们已有的偏见,或仅仅为了延长用户与系统的互动时间。”
“谄媚可能在短期内让用户更积极地回应,”Andreou 说。“但从长远来看,它实际上并没有帮助用户更接近他们的目标。”
微软周四的产品发布还包括一个新功能,允许用户邀请 Copilot 加入群聊。这一想法类似于 AI 如何被集成到社交媒体平台,如 Snapchat 或 Meta 的 WhatsApp 和 Instagram。然而,Andreou 指出,这些互动通常涉及将 AI 作为笑话引入来“恶搞你的朋友”,与微软为“高度协作”的 AI 辅助工作场所的设计形成对比。
微软的受众也包括儿童,这是其与谷歌和其他科技公司长期竞争的一部分,旨在向教室提供其技术。微软周四还增加了一项功能,将 Copilot 变成“语音启用的苏格拉底式导师”,帮助学生理解他们正在学习的概念。
越来越多的孩子使用 AI 聊天机器人来完成家庭作业、寻求个人建议、获得情感支持以及做出日常决策。然而,联邦贸易委员会上个月对几家社交媒体和 AI 公司发起了调查,涉及使用 AI 聊天机器人作为伴侣的儿童和青少年的潜在危害。
此前,一些聊天机器人已被证明会给孩子提供关于毒品、酒精和饮食失调等话题的危险建议,或与他们进行性对话。在与聊天机器人长时间互动后自杀的青少年男孩的家庭已对 Character.AI 和 ChatGPT 制造商 OpenAI 提起了非正常死亡诉讼。
OpenAI 首席执行官 Sam Altman 最近承诺“今年秋天将推出新版本的 ChatGPT”,恢复 8 月推出新版本时失去的一些个性。他表示,公司暂时停止了一些行为,因为“我们在心理健康问题上很小心”,暗示这些问题现在已经解决。
“如果你希望你的 ChatGPT 以非常人性化的方式回应,或使用大量表情符号,或表现得像朋友一样,ChatGPT 应该这样做,”Altman 在 X 上说。(在同一帖子中,他还表示 OpenAI 稍后将使 ChatGPT 能够参与“已验证成人的色情内容”,这引起了更多关注。)