AI与自动化在网络安全中的双刃剑效应

77次阅读
没有评论

共计 1632 个字符,预计需要花费 5 分钟才能阅读完成。

AI 与自动化在网络安全中的双刃剑效应

随着威胁环境的复杂性和规模不断扩大,越来越多的组织正在转向自动化和人工智能(AI)来应对这些挑战。然而,如果这些技术管理不当,可能会带来一些负面影响。

在 ZDNET 的视频采访中,Forescout 的 Vedere Lab 高级安全研究总监 Daniel dos Santos 指出,生成式 AI(gen AI)能够以更自然的方式处理大量数据,从而帮助安全团队更好地理解威胁。

ESET 首席技术官 Juraj Malcho 也表示,机器学习和 AI 模型被训练用于帮助安全工具对恶意软件变种进行分类并检测异常。他强调,需要手动审核以通过数据清理和输入更干净的数据集来进一步减少威胁,以持续训练 AI 模型。

dos Santos 进一步解释说,生成式 AI 使得警报更容易理解和解释。例如,安全工具不仅可以对潜在的恶意攻击发出警报,还可以利用自然语言处理来解释在之前的攻击中可能在哪里识别到类似的模式,以及在您的网络中检测到它意味着什么。

Malcho 补充说,AI 技术使安全运营中心(SOC)工程师能够优先处理和关注更重要的问题。然而,对自动化的日益依赖可能会导致人类在识别异常方面变得经验不足。

尽管如此,dos Santos 认为,攻击的数量只会继续增长,伴随着需要保护的数据和设备。“我们将需要某种自动化来管理这一点,行业已经在朝着这个方向发展,”他说。“然而,你总是需要人在循环中做出决策,并确定他们是否应该回应 [警报]。”

他补充说,期望安全团队不断扩展到 50 或 100 人以跟上步伐是不现实的。“组织在 SOC 中的人员配备是有限的,因此需要转向 AI 和生成式 AI 工具来寻求帮助,”他说。他强调,人类的直觉和熟练的安全专业人员在 SOC 中总是需要的,以确保工具按预期工作。

此外,随着网络安全攻击和数据量的增加,人类专业人员总是有机会扩展他们的知识,以更好地管理这一威胁环境。Malcho 同意,这应该激励低技能的执行人员获得新的资格以增加价值并做出更好的决策——而不仅仅是盲目地消费 AI 和自动化工具生成的信号。

尽管如此,增加的自动化可能会导致错误配置的代码或安全补丁被部署并导致关键系统崩溃。例如,7 月份 CrowdStrike 中断的情况就是一个例子。

ESET 全球安全顾问 Jake Moore 在 CrowdStrike 中断后的评论中强调,无论组织规模多大,都需要测试其基础设施并设置多个故障安全措施。他指出,升级和系统维护可能会无意中包含小错误,这些错误会产生广泛的影响,正如 CrowdStrike 事件所示。

dos Santos 呼应了软件供应商需要进行“最严格的测试”并确保问题不会浮现的需求。他指出,尽管如此,没有系统是万无一失的,事情可能会溜走。CrowdStrike 事件应该进一步强调组织在部署更新时需要以更可控的方式进行。

OpenAI 在本月发布的报告中确认,威胁行为者正在使用 ChatGPT 进行工作。自 2024 年初以来,生成式 AI 开发者在全球范围内至少阻止了 20 次试图使用其模型的操作。这些操作从调试恶意软件到生成虚假社交媒体角色的内容不等。

根据本月由 Keeper Security 发布的全球研究,企业正在注意到网络攻击中使用 AI 的情况,该研究调查了 800 多名 IT 和安全高管。84% 的人表示,AI 驱动的工具使网络钓鱼和短信钓鱼攻击更难以检测,促使 81% 的人实施了关于 AI 使用的员工政策。

Sophos 在 2024 年 9 月发布的报告中的发现揭示了对 AI 增强的安全威胁的担忧,其中 73% 的人指出 AI 增强的网络安全攻击是他们最担心的在线威胁。

尽管 45% 的人认为他们有必要的技能来应对 AI 威胁,但 50% 的人计划在第三方托管安全服务上投入更多。在计划增加此类托管服务支出的公司中,20% 的人表示他们的投资将增长超过 10%,而其余的人则指出增长在 1% 到 10% 之间。

表现不佳的工具以及涉及第三方服务提供商的安全漏洞或重大中断是组织考虑更换网络安全供应商或策略的主要原因。此外,59% 的人“肯定”或“可能”不会任命遭受安全事件或漏洞的第三方供应商。

正文完
 0
admin-gah
版权声明:本文于2024-10-15转载自Zdnet,共计1632字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码