OpenAI 加强安全措施应对企业间谍活动

3次阅读
没有评论

共计 581 个字符,预计需要花费 2 分钟才能阅读完成。

![图 5:人工智能技术未来主义背景。黑色背景上的绿色二进制编码字母。](https://techcrunch.com/wp-content/uploads/2023/12/face-ai-binary.jpg?w=1024)

** 图片来源:** cundra / Getty Images

OpenAI 加强安全措施应对企业间谍活动

OpenAI 近期全面加强了安全措施,以应对日益猖獗的企业间谍活动。据《金融时报》报道,这一举措是在中国初创公司 DeepSeek 发布竞争模型后加速实施的。OpenAI 声称 DeepSeek 使用“蒸馏”技术不当复制了其模型。

新安全措施的核心是“信息隔离”政策,该政策严格限制员工访问敏感算法和新产品。例如,在 OpenAI 的 o1 模型开发期间,只有经过验证并了解项目的团队成员才能在共享办公空间中讨论该项目。

此外,OpenAI 已将专有技术隔离在离线计算机中,并实施生物识别访问控制(通过扫描员工的指纹)来管理办公区域。公司还保持“默认拒绝”的互联网政策,要求外部连接必须获得明确批准。

据称,OpenAI 还增加了数据中心的物理安全措施,并扩大了网络安全人员规模。这些变化反映了对外国对手试图窃取 OpenAI 知识产权的广泛担忧。

然而,鉴于美国人工智能公司之间持续的挖角战以及首席执行官 Sam Altman 的评论泄露事件的日益频繁,OpenAI 可能也在试图解决内部安全问题。

已联系 OpenAI 寻求评论。

正文完
 0
admin-gah
版权声明:本文于2025-07-08转载自TechCrunch,共计581字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码