苹果邀请研究人员测试其人工智能隐私声明

84次阅读
没有评论

共计 667 个字符,预计需要花费 2 分钟才能阅读完成。

苹果正在邀请研究人员测试其私有云计算(PCC)系统,该系统支持更复杂的苹果人工智能请求。该公司还扩大了其漏洞赏金计划,为发现 PCC 漏洞的人提供高达 1,000,000 美元的奖励。

苹果邀请研究人员测试其人工智能隐私声明

苹果曾夸耀其许多人工智能功能将在设备上运行,不会离开您的 Mac、iPhone 或其他苹果硬件。但对于更复杂的请求,它会将这些请求发送到使用苹果硅芯片和一种新操作系统的 PCC 服务器。

许多其他公司的人工智能应用也依赖服务器来完成更复杂的请求。然而,用户对这些基于服务器的操作的安全性了解不多。当然,苹果多年来一直大力宣传其对用户隐私的重视,因此为人工智能设计的云服务器如果设计不佳,可能会损害其形象。为了防止这种情况,苹果表示其设计了 PCC,以便公司的安全和隐私保证是可执行的,并且安全研究人员可以独立验证这些保证。

对于研究人员,苹果提供:

  • 安全指南,详细说明 PCC 的技术细节
  • “虚拟研究环境”,允许您在 Mac 上对 PCC 进行安全分析(尽管您需要拥有配备苹果硅芯片和 16GB 以上内存的 Mac,并运行最新的 macOS Sequoia 15.1 开发者预览版)
  • GitHub 上的源代码,用于“帮助实现其安全和隐私要求的 PCC 某些关键组件”

通过漏洞赏金计划,苹果为在几个不同类别中发现的漏洞提供从 50,000 美元到 1,000,000 美元的奖励。苹果还将评估任何对 PCC 有重大影响的安全问题,以确定是否提供奖励。

首批苹果人工智能功能计划于下周随 iOS 18.1 发布。一些较大的苹果人工智能功能,包括 Genmoji 和 ChatGPT 集成,已出现在昨天发布的第一个 iOS 18.2 开发者测试版中。

正文完
 0
admin-gah
版权声明:本文于2024-10-25转载自TheVerge,共计667字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码