CrowdStrike与Meta联手推出AI安全评估工具,助力企业应对网络安全挑战

14次阅读
没有评论

共计 1169 个字符,预计需要花费 3 分钟才能阅读完成。

随着人工智能(AI)技术的快速发展,网络安全领域正面临前所未有的挑战与机遇。AI 不仅带来了新型的网络威胁,也为防御这些威胁提供了创新工具。近日,网络安全软件公司 CrowdStrike 与 Meta 联手推出了一套名为 CyberSOCEval 的开源基准测试套件,旨在帮助企业从众多 AI 驱动的网络安全工具中筛选出最适合其需求的解决方案。

在当前的网络安全市场中,各类工具在功能和价格上差异巨大,这使得网络安全专业人员在选择时常常感到困惑。CrowdStrike 在一份新闻稿中指出:“如果没有明确的基准,很难确定哪些系统、用例和性能标准能够在实际攻击中真正发挥 AI 的优势。”

CrowdStrike 与 Meta 联手推出 AI 安全评估工具,助力企业应对网络安全挑战

CyberSOCEval 测试套件正是为了解决这一问题而设计。它通过在关键网络安全基准上测试大型语言模型(LLMs),包括事件响应、威胁分析理解和恶意软件测试,帮助企业更清晰地了解不同系统的优势和劣势。

与所有 AI 模型测试框架一样,CyberSOCEval 的目标是规范 LLMs 在实际网络安全任务中的评估。这不仅有助于企业做出更明智的选择,还可能让 AI 开发者更细致地了解企业客户如何将他们的模型用于网络安全任务,从而催生更专业和更强大的模型。

AI 的兴起正在催生新的网络安全威胁,但同时也提供了解决方案。恶意行为者利用 AI 进行新型攻击,例如密码暴力破解,而安全运营中心(SOC)则越来越多地将 AI 系统集成到其安全工具包中。这种数字军备竞赛可以比作人体免疫系统内的生物军备竞赛,白细胞必须不断检测和对抗有害病原体,而这些病原体也在不断进化,变得更加难以检测并对抗我们的抗病药物。

万事达卡和《金融时报》Longitude 最近进行的一项调查显示,金融服务领域的许多企业通过部署 AI 驱动的网络安全工具对抗 AI 欺诈者,节省了数百万美元。这一案例进一步证明了 AI 在网络安全领域的重要作用。

Meta 长期以来一直将自己定位为开源 AI 的领导者,与 OpenAI 的 GPT- 5 等专有模型不同,它允许开发者访问模型权重,甚至在某些情况下访问源代码,并免费在模型之上构建应用程序。Meta 与 CrowdStrike 的合作标志着其为企业提供更多开源选项的最新努力。

Meta 新成立的超级智能实验室部门 GenAI 产品总监 Vincent Gonguet 在一份声明中表示:“有了这些基准,并开放给安全和 AI 社区进一步改进,我们可以作为一个行业更快地解锁 AI 在防御高级攻击(包括基于 AI 的威胁)方面的潜力。”

现在,企业可以通过 Github 访问 CyberSOCEval,并获取有关基准测试的更多信息。这套工具的开源性质不仅降低了企业的使用门槛,也为整个网络安全社区的协作与创新提供了新的平台。

随着 AI 技术的不断进步,网络安全领域的工具和测试框架也将持续演进。CrowdStrike 和 Meta 的这次合作,无疑为这一进程注入了新的动力。

正文完
 0
admin-gah
版权声明:本文于2025-09-16转载自Zdnet,共计1169字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码