共计 777 个字符,预计需要花费 2 分钟才能阅读完成。
微软近日发布警告,集成到 Windows 中的实验性 AI 代理——Copilot Actions 可能会带来安全风险,包括设备感染和敏感数据泄露。这一警告引发了广泛关注,尤其是在安全意识强的用户群体中。
Copilot Actions 是一组新的实验性功能,旨在帮助用户执行日常任务,如整理文件、安排会议或发送电子邮件。它被宣传为“一个活跃的数字协作者,可以为你执行复杂任务以提高效率和生产力”。然而,这一功能的背后隐藏着潜在的安全隐患。
微软建议用户仅在“理解所述安全影响”的情况下启用 Copilot Actions。这一警告基于大型语言模型(LLM)的固有缺陷,包括“幻觉”和“提示注入”。LLM 可能会提供事实错误或不合逻辑的答案,而提示注入则允许黑客植入恶意指令,导致数据泄露或恶意软件安装。
微软表示,Copilot Actions 目前仅在 Windows 的测试版中可用,并且只有有经验的用户才应启用该功能。然而,该公司并未明确说明这些用户应具备何种培训或经验,也未提供具体的防护措施。
一些安全专家质疑微软警告的有效性,将其比作微软几十年来关于 Office 宏的危险警告。尽管有长期建议,宏仍然是黑客在 Windows 机器上安装恶意软件的常见目标。
微软强调,Copilot Actions 是一个默认关闭的实验性功能,旨在限制其访问范围。然而,批评者指出,之前的实验性功能(如 Copilot)通常会随着时间的推移成为所有用户的默认功能,这使得用户难以避免潜在的风险。
微软的保护策略包括不可否认性、机密性和用户批准。然而,这些目标依赖于用户阅读警告并仔细批准,这在实践中往往难以实现。许多用户可能会因疲劳或缺乏知识而忽略这些警告。
总的来说,Copilot Actions 的引入带来了效率提升的可能性,但也伴随着显著的安全风险。用户在使用这些功能时应保持警惕,并确保充分了解其潜在影响。