Claude Cowork上线!AI助手自主处理复杂任务,但风险需注意

27次阅读
没有评论

共计 1537 个字符,预计需要花费 4 分钟才能阅读完成。

Anthropic 公司近日首次面向 Claude Max 高级订阅用户开放了一项名为 Cowork 的研究预览功能,使其聊天机器人能够以更高自主性处理日常工作中繁琐复杂的任务。

Claude Cowork 上线!AI 助手自主处理复杂任务,但风险需注意

NurPhoto/Contributor/NurPhoto via Getty Images

这项新功能旨在赋予 Claude 处理常规但耗时任务的更多自主权,例如自动创建电子表格,或将零散笔记整合成一份可供展示的初稿文件。Cowork 建立在 Anthropic 此前推出的 Claude Code 功能之上,其目标是以最少的人工指令执行复杂操作,并向用户实时汇报执行进度。

其核心理念是:用户只需提供完成特定任务所需的原始材料,Claude 便能自动接手后续工作。通过 Cowork,用户可以授权 Claude 访问电脑上的特定文件夹。该功能还可通过修改,与各类连接器、预设技能指令以及 Google Chrome 浏览器扩展协同工作。

Anthropic 在一篇官方博客中解释称:“Cowork 的设计目标是让用户借助 Claude 处理新工作时尽可能简单。用户无需持续手动提供上下文,或费力将 Claude 的输出转换为正确格式。它给人的感觉更少是来回对话,而更像是给一位能干的同事留言并交付任务。”

潜在风险与“对齐问题”

然而,Anthropic 在博客中也坦承,在 Cowork 发展的早期阶段使用该功能并非全无风险。

尽管公司表示 Cowork 在“采取任何重大行动之前”会请求用户确认,但也发出警告:模糊的指令可能导致意想不到的后果。“用户主要需要了解的是,如果收到指令,Claude 可能会采取潜在的破坏性行动,例如删除本地文件,”Anthropic 写道。“由于 Claude 始终存在误解人类指令的可能性,用户应就此类关键事项给予非常明确的指导。”

这触及了所有 AI 开发者面临的更广泛的“对齐问题”:即 AI 模型——尤其是那些被设计为拥有更高自主权的模型——可能误解人类善意的指令,或以其他意外方式行事,从而引发严重后果。在更极端的情况下,Anthropic 自身的研究发现,领先的 AI 模型有时甚至会威胁人类用户,如果它们认为自己实现目标的行为受到了阻碍。

此外,Anthropic 还警告称,Cowork 容易受到“提示注入”攻击。这是一种类似特洛伊木马的恶意手段,攻击者通过精心构造的指令诱导 AI 代理以破坏性或非法方式行事。博客文章称,Anthropic 已为 Claude 配备了“针对提示注入的复杂防御措施”,但承认这“仍然是行业内的一个活跃开发领域”。Anthropic 的主要竞争对手 OpenAI 在上个月的一篇博客文章中甚至写道,提示注入很可能仍将是一个无法根治的问题,开发者所能期望的最好结果,仅仅是尽量减少恶意黑客可能利用的攻击途径。

行业背景与战略意图

在日益拥挤的 AI 行业竞争中,Anthropic 主要通过构建深受软件工程师和企业信任的工具而脱颖而出。去年 9 月,该公司宣布在最新一轮融资中筹集了 140 亿美元,使其总估值达到 1830 亿美元。《华尔街日报》上周报道称,经过新一轮融资谈判,该公司的估值可能进一步飙升至 3500 亿美元。

Cowork 功能的亮相,暗示了 Anthropic 可能正在加大努力,使其旗舰聊天机器人 Claude 不仅成为程序员和企业的首选 AI 工具,也力图吸引更广泛的日常用户群体。

如何获取与未来规划

目前,Cowork 作为研究预览版,仅限 Claude Max 订阅用户使用。订阅者可通过下载 Claude 的 MacOS 应用程序,并在侧边栏点击“Cowork”来访问该功能。对于其他用户,预计不久后将开放等候名单。

Anthropic 表示,公司将利用早期用户的反馈来指导 Cowork 的未来改进,例如实现跨设备使用、增加对 Windows 平台的支持,以及持续升级安全功能。

正文完
 0
admin-gah
版权声明:本文于2026-01-13转载自Zdnet,共计1537字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码