LinkedIn更新隐私政策:用户数据用于AI训练的新规定

158次阅读
没有评论

共计 1289 个字符,预计需要花费 4 分钟才能阅读完成。

LinkedIn 最近对其隐私政策进行了更新,明确指出用户数据将被用于 AI 模型的训练。这一变化引起了广泛关注,尤其是在用户隐私保护方面。

LinkedIn 更新隐私政策:用户数据用于 AI 训练的新规定

LinkedIn 在 11 月 20 日的博客中宣布,其用户协议和隐私政策将进行修改,以更清晰地解释用户的个人数据如何为平台上的 AI 提供动力。

根据新的隐私政策,LinkedIn 现在告知用户,他们可能会使用用户的个人数据来开发和训练 AI 模型,以提供和个性化服务,并通过 AI、自动化系统和推断获得洞察,使服务对用户更加相关和有用。

常见问题解答解释说,每当用户与生成式 AI 或其他 AI 功能互动时,或者当用户撰写帖子、更改偏好、向 LinkedIn 提供反馈或使用平台时,个人数据都可能被收集。

这些数据随后被存储,直到用户删除 AI 生成的内容。LinkedIn 建议用户使用其数据访问工具,如果他们希望删除或请求删除过去 LinkedIn 活动收集的数据。

LinkedIn 的常见问题解答指出,对于用户来说,一个潜在的重大隐私风险是,那些“将个人数据作为生成式 AI 功能输入”的用户最终可能会看到他们的“个人数据作为输出提供”。

LinkedIn 声称,它“力求最小化用于训练模型的数据集中的个人数据”,并依赖“隐私增强技术来编辑或从训练数据集中删除个人数据”。

虽然 Lawit 的博客没有澄清是否可以从 AI 训练数据集中删除已经收集的数据,但常见问题解答确认,那些自动选择共享个人数据用于 AI 训练的用户只能选择退出“未来的”侵入性数据收集。

LinkedIn 的一位发言人告诉 Ars,默认情况下选择加入 AI 训练“对所有会员都有益”。

用户可以通过导航到其账户设置中的“数据隐私”部分,然后关闭 LinkedIn 默认开启的“用于生成式 AI 改进的数据收集”选项,来选择退出 AI 训练。

唯一的例外是欧洲经济区或瑞士的用户,他们受到更严格的隐私法律保护,这些法律要么要求平台获得收集个人数据的同意,要么要求平台证明数据收集是合法利益。这些用户不会看到选择退出的选项,因为他们从未被选择加入,LinkedIn 反复确认。

此外,用户可以通过提交 LinkedIn 数据处理异议表,“反对使用他们的个人数据来训练”不用于生成 LinkedIn 内容的生成式 AI 模型——例如用于个性化或内容审核目的的模型。

去年,LinkedIn 分享了 AI 原则,承诺采取“有意义的步骤来减少 AI 的潜在风险”。

更新后的用户协议明确指出的一种风险是,使用 LinkedIn 的生成式功能来帮助填充个人资料或生成帖子建议时,可能会生成“可能不准确、不完整、延迟、误导或不适合您的目的”的内容。

用户被建议负责避免分享误导性信息或传播可能违反 LinkedIn 社区指南的 AI 生成内容。此外,用户还被警告在使用平台上共享的任何信息时要谨慎。

2023 年,LinkedIn 声称它将始终“以清晰简洁的方式解释我们的 AI 使用如何影响人们”,因为用户的“AI 理解始于透明度”。

像欧盟的 AI 法案和 GDPR——尤其是其强大的隐私保护——如果在他处实施,将导致对不知情的用户造成更少的冲击。这将使所有公司及其用户在训练 AI 模型时处于平等地位,并减少令人不快的意外和愤怒的客户。

正文完
 0
admin-gah
版权声明:本文于2024-09-21转载自Ars Technica,共计1289字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码