Microsoft 强化代理式 AI 安全:零信任策略全面升级

4次阅读
没有评论

共计 1005 个字符,预计需要花费 3 分钟才能阅读完成。

在人工智能技术快速发展的当下,Microsoft 正致力于将零信任安全理念延伸至新兴的代理式 AI 领域。公司计划扩展其安全与身份管理工具——包括 Entra、Purview 和 Defender——以覆盖使用其自身平台及关键合作伙伴开发的 AI 代理。

Microsoft 安全公司副总裁 Vasu Jakkal 在公司博客中强调:” 这些举措彰显了我们在提供全面 AI 安全与治理方面的承诺。我们的技术建立在过去的安全经验基础之上,并严格遵循安全未来倡议的原则。”

Microsoft 强化代理式 AI 安全:零信任策略全面升级

这一安全公告与 Microsoft 在西雅图举办的 Build 大会同步发布。会上,公司正式推出了 Azure AI Foundry Agent Service,旨在帮助企业通过预构建或自定义代理部署代理式 AI。此外,Microsoft 还展示了内置在 Azure AI Foundry 中的评估与监控工具,这些工具能够检测并阻止提示注入,确保任务合规性。

代理式 AI 作为科技行业的最新趋势,被业界视为生成式 AI 自然演进的最新阶段。然而,随着技术的广泛应用,安全问题日益凸显。虽然 AI 代理可能为网络安全带来重大变革,但也可能使企业面临一系列新型威胁。

为了应对这些挑战,Microsoft 推出了专门用于管理和保护代理式 AI 的 Microsoft Entra 代理 ID 系统。该系统采用零信任策略,确保 AI 代理在通过验证前无法访问数据、应用程序或其他基础设施。Jakkal 解释道:” 现在,在 Microsoft Copilot Studio 和 Azure AI Foundry 中创建的 AI 代理会自动获得 Microsoft Entra 目录中的身份,类似于为每辆新车刻上唯一的 VIN 并在出厂前注册。”

该系统将与 ServiceNow 和 Workday 等平台深度集成,提供自动身份配置功能。同时,Microsoft 还将 Purview 数据安全与合规控制扩展至 Azure AI Foundry 和 Copilot Studio 中构建的 AI 代理,以及通过新 SDK 开发的自定义 AI 应用程序。

在安全防护方面,Microsoft 将 Defender 的安全工具直接整合到 Azure AI Foundry 中。Jakkal 指出,这种集成 ” 缩小了安全与开发团队之间的工具差距 ”,使开发团队能够 ” 主动缓解 AI 应用程序风险 ” 和潜在漏洞。

通过这些创新举措,Microsoft 不仅强化了代理式 AI 的安全防护,也为企业提供了更完善的 AI 治理方案,推动 AI 技术在安全可控的环境中持续发展。

正文完
 0
admin-gah
版权声明:本文于2025-05-22转载自IT Pro,共计1005字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码