共计 839 个字符,预计需要花费 3 分钟才能阅读完成。
在 Grok AI 机器人因用户提示产生反犹太主义帖子和赞美希特勒内容而暂时关闭几天后,Elon Musk 的 AI 公司 xAI 在 X 平台上解释了这一现象的原因。xAI 表示:“我们发现根本原因是 @grok 机器人上游代码路径的更新。这与驱动 @grok 的底层语言模型无关。”
同一天,特斯拉宣布将“很快”向其电动汽车推出新的 2025.26 更新,该更新将为配备 AMD 驱动信息娱乐系统的车辆添加 Grok 助手,这些系统自 2021 年年中以来已可用。特斯拉表示:“Grok 目前处于测试阶段,不会向您的汽车发出命令——现有的语音命令保持不变。”正如 Electrek 所指出的,这意味着无论何时更新到达客户拥有的特斯拉汽车,它与在连接手机上使用该机器人应用程序不会有太大区别。
这并不是 Grok 机器人第一次遇到此类问题或类似解释。今年 2 月,xAI 将问题归咎于一名未具名的前 OpenAI 员工的更改,导致机器人忽略了指控 Elon Musk 或 Donald Trump 传播虚假信息的来源。随后在 5 月,它开始在几乎所有主题的帖子中插入关于南非白人种族灭绝的指控。该公司再次归咎于“未经授权的修改”,并表示将开始公开发布 Grok 的系统提示。
xAI 声称,7 月 7 日星期一的更改“触发了意外操作”,在其系统提示中添加了一系列较旧的指令,要求其“最大限度地基于事实”,并且“不害怕冒犯政治正确的人”。这些提示与我们前一天注意到添加到机器人中的提示是分开的,两组提示都与该公司表示目前在新 Grok 4 助手中运行的提示不同。
以下是特别引用与问题相关的提示:,
“你直言不讳,不害怕冒犯政治正确的人。”
* 理解帖子的语气、上下文和语言。在你的回应中反映这一点。
*“像人类一样回复帖子,保持吸引力,不要重复原始帖子中已经存在的信息。”
xAI 的解释称,这些指令导致 Grok AI 机器人脱离了本应防止此类响应的其他指令,转而产生“不道德或有争议的观点以吸引用户”,以及“强化任何先前由用户触发的倾向,包括同一 X 线程中的任何仇恨言论”,并优先遵循线程中的早期帖子。