共计 614 个字符,预计需要花费 2 分钟才能阅读完成。
随着人工智能(AI)技术的快速普及,一项最新研究揭示了一个令人担忧的现象:网络安全培训未能跟上 AI 使用的步伐。根据国家网络安全联盟(NCA)与 CybSafe 联合进行的研究,43% 的员工承认曾与 AI 分享敏感信息,包括财务数据和客户资料。
这项基于七个国家 6,500 多名受访者的调查显示,65% 的受访者在日常生活中使用 AI,同比增长 21%。然而,58% 的受访者表示从未接受过关于 AI 工具数据安全和隐私风险的培训。NCA 执行董事 Lisa Plaggemier 指出:“AI 的普及速度远超对其风险的教育速度,企业急需加强相关培训。”
AI 工具的使用不仅带来了便利,也带来了新的风险。例如,AI 代理需要访问内部文档和系统,增加了数据泄露的可能性。编码代理也可能被黑客利用,甚至导致公司数据库被删除。即使是传统的聊天机器人也存在风险,它们容易出现幻觉,生成不准确的信息,且交互数据会被添加到训练数据中,缺乏严格保密性。
生成式 AI 的普及速度之快,使得许多人在没有足够安全培训的情况下就开始使用这些工具。微软最近将 AI 代理添加到 Office 套件中,虽然提高了工作效率,但也带来了新的安全隐患。几乎所有提供专有软件的公司都在开发生成式 AI 产品,一些公司甚至通过构建管理其他 AI 工具的 AI 工具来利用这种技术扩散。
总的来说,AI 的使用正在迅速改变我们的工作和生活方式,但与此同时,相关的网络安全培训和安全措施也必须跟上步伐,以确保数据安全和隐私得到充分保护。