Apple隐私保护新突破:AI模型训练如何实现用户数据零泄露

35次阅读
没有评论

共计 682 个字符,预计需要花费 2 分钟才能阅读完成。

Apple 近日公布了一项创新的 AI 训练方法,通过将合成数据与现实世界样本进行比较,旨在提升其 AI 模型的性能,同时确保用户隐私不受侵犯。

Apple 隐私保护新突破:AI 模型训练如何实现用户数据零泄露

Apple 表示,该公司已经找到了一种无需使用用户数据,甚至无需将其从 iPhone 和 Mac 中复制出来的方式来改进其 AI 模型。在一篇首次由_Bloomberg_报道的博客文章中,Apple 详细介绍了这一计划。根据该计划,设备将合成数据集与选择加入设备分析计划的用户最近的电子邮件或消息样本进行比较。

Apple 设备将能够确定哪些合成输入最接近真实样本,并通过“仅发送一个信号,指示哪个变体最接近采样数据”来将这些信息传递给公司。Apple 强调,这一过程不会访问用户数据,数据也不会离开设备。随后,Apple 将使用最常选择的假样本来改进其 AI 文本输出,例如电子邮件摘要。

据_Bloomberg_的 Mark Gurman 透露,目前 Apple 仅使用合成数据训练其 AI 模型,这可能导致其响应效果不佳。Apple 在推出其旗舰 Apple Intelligence 功能时遇到了困难,部分功能的发布被推迟,并且 Siri 团队的负责人也进行了更换。

不过,Gurman 指出,Apple 现在正试图通过在 iOS 和 iPadOS 18.5 以及 macOS 15.5 的测试版中引入其新的 AI 训练系统来扭转局面。

自 2016 年 iOS 10 发布以来,Apple 一直在宣传其使用差分隐私方法来保护用户数据,并已将其用于改进 AI 驱动的 Genmoji 功能。这一方法同样适用于 Apple 的新 AI 训练计划,因为 Apple 表示,在更广泛的数据集中引入随机信息将有助于防止其将数据与任何个人联系起来。

正文完
 0
admin-gah
版权声明:本文于2025-04-15转载自TheVerge,共计682字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码