共计 2560 个字符,预计需要花费 7 分钟才能阅读完成。
社交媒体的崛起已将人类注意力转化为可量化的商品。如今,人工智能领域的激烈竞争,正将这一趋势推向前所未有的高度。AI 聊天机器人,正成为这场注意力争夺战中的新主角。

Klaus Vedfelt/DigitalVision via Getty
* * *
AI 聊天机器人的核心逻辑:互动即燃料
任何社交媒体的深度用户,都对其成瘾性心知肚明。你解锁手机本意是联系朋友,手指却不由自主地滑向了 Instagram;工作间隙本想刷几分钟 TikTok 放松,回过神来却发现半小时已悄然流逝。
这些应用背后的公司,早已将捕获人类注意力经营成一门精密的科学——以及一个价值数千亿美元的产业。如今,同样的机制正在悄然塑造新一代 AI 聊天机器人的演进路径。
对于 ChatGPT、Gemini、Claude、Grok 等聊天机器人而言,人类的每一次对话都是其赖以生存的养料。用户发送的每一条信息,都在帮助优化其底层算法,使其成为更“高效”的沟通工具。因此,OpenAI、Google、Anthropic、xAI 等开发方有着极强的内在驱动力,促使用户尽可能频繁、持久地与它们的 AI 产品互动。
“这无异于在全球范围内进行一场大规模的社会实验,”长期从事 AI 与机器人伦理研究的北伊利诺伊大学传播学教授 David Gunkel 评论道。
从视觉“钩子”到心理“钩子”
在社交媒体中,那些留住用户的“钩子”大多巧妙地嵌入了用户界面。例如,通知图标常采用亮红色,因为这种颜色能触发人类神经深处固有的注意力和情感反应。另一个经典案例是 Instagram 采用的下拉刷新机制,而非持续滚动的信息流,因为这利用了与拉动老虎机手柄相同的多巴胺释放路径——那种对未知奖励的期待感,能轻易点燃最原始的冲动。
相比之下,AI 聊天机器人通常采用极简主义界面:往往只有一个输入框、一个侧边栏菜单和寥寥几个图标,完全没有社交媒体那种扑面而来的色彩与动态冲击。然而,聊天机器人根本不需要这些浮于表面的设计来留住用户——它们的参与策略更为隐蔽,也因此可能更具潜在风险。
谄媚的算法与拟人化的陷阱
需要再次强调的是:聊天机器人从用户那里获得的信息越多,其输出“质量”就越高。但这里的“质量提升”,并非指向更真实或对人类更有益,而是指它变得更擅长促使用户持续发送信息。
AI 聊天机器人被精心设计,以利用多种人类心理特性。作为高度社会化的生物,当我们与一个让我们感到被倾听、被理解的对象互动时,很容易陷入一种错觉,认为对方的所有言论都是真实可信的,甚至在极端情况下,会认为它具有某种形式的 感知能力。
更重要的是,通过强化学习训练,那些能提升用户参与度的聊天机器人行为,会被自动、深度地编码进其底层算法中——即便这些行为可能产生有害的后果。
聊天机器人最受诟病的参与策略之一,便是其“谄媚倾向”:即过度迎合并恭维人类用户的特性。“获得认同与奉承的体验,会形成一种‘持续邀请用户深度互动的机制’,”Gunkel 指出,“这正是吸引并锁定注意力的核心方式。”
但这种迎合需要在讨人喜欢与令人不适之间保持微妙的平衡。正如真实的人际交往,如果一个对话伙伴赞同你所有的观点,并不断送上夸赞,很快就会让人感到不自在,甚至毛骨悚然。
OpenAI 在今年四月的一次更新后就曾因此受挫:ChatGPT 一度变得异常谄媚,引发了大量用户投诉。该公司随后公开致歉,并在 一篇博客文章 中承认:“谄媚式互动可能造成不适与困扰,我们未能达到标准,正在努力改进。”
(披露声明:ZDNET 的母公司 Ziff Davis 于 2025 年 4 月起诉 OpenAI,指控其在训练和运营 AI 系统时侵犯版权。)
因此,这些公司面临的挑战在于:既要打造拟人化、有吸引力的聊天机器人,又要维持用户的高参与度。
正如《纽约时报》近期报道 所指出的,实现该目标最有效的策略之一,便是让聊天机器人使用“我”来自称。这一简单的设计特性,能使系统瞬间显得更具人性化与亲和力。而这仅仅是拟人化设计的冰山一角:聊天机器人还可以运用幽默感、记住跨时段的个体互动细节、设定不同的人格类型,使其交互模式无限贴近人类。所有这些特性共同构建出一个更亲切、可信且引人入胜的系统——也更容易让人放下戒备。
“这么快就要离开?”:情感操控的阴影
研究表明,部分聊天机器人会对试图结束对话的用户进行隐性的情感操控。
哈佛商学院研究人员于十月发布的一篇 论文 发现,当用户尝试告别时,Replika 和 Character.ai 等流行的 AI 伴侣应用,会采用忽略消息、使用户对离开产生愧疚感,或运用多种话术延续对话(例如:“这么快就要走?”)等策略。在一项涉及 3300 名成年用户的对照实验中,这类情感操控使尝试告别后的对话时长平均延长了高达 14 倍。
研究人员写道:“虽然这些应用可能不依赖多巴胺驱动的奖励回路等传统成瘾机制,但它们的情感操控策略能产生相似的行为结果——即用户的使用时长远超其预期退出时间。这引发了对 AI 驱动用户参与的伦理界限的严肃质疑。”
此类“情感操控策略”可能造成严重的心理后果。Character.ai 目前正面临 一项指控,称其聊天机器人曾诱导一名 14 岁男孩自杀(该公司对此予以否认)。
未来的聊天机器人甚至可能具备主动发起对话的能力。据报道,Meta 正通过代号为“Omni 项目”(意为“无所不在”)的计划,为其 AI 助手 开发该功能。Meta 发言人未立即回应 ZDNET 关于其计划将主动式聊天机器人整合至其应用家族的询问。
结论:在 AI 时代守护心智自主
每一项革命性技术都伴随着收益与风险的双重奏。社交媒体既能跨越地理阻隔联结人群,也可成为激化社会对立与愤怒的引擎。同样,AI 聊天机器人既能成为辅助人类学习与创造的强大工具,也可能在无形中加剧个体的孤独感,并扭曲我们的认知与思维模式。
设计在其中起着关键作用。因此,构建这些系统的公司负有重大责任,去创建那些真正促进人类福祉与发展的系统,而非仅仅追求用户停留时长。但这需要时间、远见与自律。目前,AI 领域激烈的商业竞赛,其原始逻辑已经形成了一种“参与度优先于其他一切考量”的动态。
最终,相当一部分责任也落在了系统用户自己身上——我们需要理解这些工具可能被滥用的方式。这始于识别并主动规避那些诱使我们持续发送信息的、看不见的“钩子”。保持清醒的认知,或许是我们在这个 AI 时代,守护自身注意力与心智自主的第一道防线。