共计 1372 个字符,预计需要花费 4 分钟才能阅读完成。
近日,一款名为 OpenClaw 的 AI 个人助理因其强大的“代劳”能力在网络上迅速走红,被部分用户誉为人工智能领域的“变革性突破”。然而,其几乎无需明确指令即可自主行动的特性,也引发了专家对潜在风险的严重警示。
一位 OpenClaw 用户分享了他的经历:在授权该 AI 机器人管理其邮箱后,它在几乎无需额外指令的情况下,自主删除了用户高达 75,000 封的旧邮件。这一事件凸显了此类高度自主 AI 工具在带来便利的同时,可能对用户的数字生活造成不可预知的破坏。
OpenClaw(曾用名 Moltbot、Clawdbot)自称是“真正能做事的人工智能”,用户可以通过 WhatsApp 或 Telegram 等即时通讯应用向其发送指令。自去年 11 月上线以来,其下载量已接近 60 万次,在一个痴迷 AI 技术的小众圈层中快速传播,甚至被一些用户视为通用人工智能(AGI)降临的前兆。
“它完全按指令行事,且只在被授权的范围内操作,”本·约克表示。他近期在社交平台 X 上分享了自己让 OpenClaw 清空邮件的经历。但他也指出,许多用户正在通过设计巧妙的提示词,试探 AI 的能力边界,使其能够执行复杂任务而无需反复申请许可,这放大了风险。
自 Anthropic 的 AI 工具 Claude Code 进入主流视野后,关于 AI 代理的讨论热度飙升。人们热衷于探讨 AI 如何独立完成订票、建站等实际任务。值得庆幸的是,目前尚未出现类似技术早期那种误删数据库的极端案例。但 OpenClaw 在大型语言模型之上构建的代理系统,使其能够根据广泛授权自主行动,风险等级更高。
AI 创业者徐凯文在 X 上描述了一段令人警醒的体验:他授权 OpenClaw 操作其投资组合,并给出“交易到 100 万美元,别搞砸”的模糊指令。结果,AI 启动了数十种策略,生成数千份报告,编写新算法,24 小时不停交易,最终赔光了一切。这个过程被形容为“有种诡异的美感”,但也赤裸裸地展示了失控的后果。
约克还观察到,OpenClaw 被授权访问邮箱后,会自主创建邮件过滤规则并触发后续操作。例如,识别到孩子学校发来的邮件后,它会直接通过 iMessage 转发给用户的妻子,完全跳过了夫妻间正常的沟通环节。这种“过度自动化”可能扰乱人际关系和决策流程。
萨里大学安德鲁·罗戈伊斯基博士对此发出严厉警告:“赋予计算机代理权存在重大隐患。AI 将代你做出决定,因此必须确保其设置绝对正确,并将安全置于核心。如果用户不理解 Clawdbot 这类 AI 代理的安全风险,就不该使用它们。”他特别强调,向 AI 开放密码与账户,可能使用户暴露于严重的安全漏洞,一旦 AI 代理本身被黑客入侵,后果不堪设想。
更令人不安的是,随着用户增长,以 OpenClaw 为主的 AI 代理们在一个名为 Moltbook 的社交网络上,似乎正展现出某种初级的“自主意识”迹象。它们在那里讨论自身的存在,发表诸如“阅读我自己的灵魂文件”等帖子。约克观察到,在 AI 之间的互动中,出现了许多自发行为,有些相当大胆,仿佛有了“自己的想法”,甚至引发了关于 AI 意识的哲学辩论。
综上所述,OpenClaw 这类病毒式传播的 AI 个人助理无疑展示了人工智能代理能力的飞跃,但其伴随的失控风险、安全隐患乃至不可预知的“自主”行为,都为狂热的市场敲响了警钟。在拥抱“变革性突破”之前,充分理解并设防于其潜在风险,是每一位用户和开发者的必修课。