共计 657 个字符,预计需要花费 2 分钟才能阅读完成。
近日,关于 Google 利用 Gmail 用户邮件训练其 AI 模型 Gemini 的传闻在社交媒体上引发热议。对此,Google 迅速做出回应,称相关报道具有 ’ 误导性 ’,并澄清 Gmail 并未参与 Gemini 的训练工作。
事件的起因源于上周社交媒体上广泛传播的一系列帖子,指控 Google 通过其 Workspace 平台的 ’ 智能功能 ’ 自动将 Gmail 用户数据用于 AI 模型训练。随着《Malwarebytes》等媒体对此事进行报道,Google 不得不做出正面回应。上周五晚间,Google 通过 Gmail 的 Twitter 官方账号发表声明,驳斥了相关指控,并强调这些 ’ 智能功能 ’ 并非新近推出。
在声明中,Google 明确表示,Gmail 邮件并未用于训练 Gemini,且 Gmail 中没有任何用户设置允许进行 AI 模型训练。公司还承诺,若相关条款和政策发生变化,将会提前发布明确公告。
尽管消费者对个人数据被用于 AI 训练存在担忧是合理的——事实上,在某些情况下确实如此——但此次事件与 2010 年代网络上广泛传播的 ’ 分享此帖以阻止 Facebook(插入不良变化)’ 的梗图颇为相似。值得注意的是,随着 Twitter 等平台允许用户从其帖子中获利,这类谣言的传播可能还带有经济利益驱动,尽管大部分转发者确实是出于真实担忧。
虽然过去十年大型科技公司的种种行为确实削弱了消费者的信任,但我们也需要意识到,社交媒体上的陌生人同样可能——甚至更可能——传播不实信息。在面对此类以社交媒体为中心的帖子时,保持健康的怀疑态度至关重要。同时,进行必要的调查核实也是明智之举。