共计 934 个字符,预计需要花费 3 分钟才能阅读完成。
多年来,Meta 旗下平台 Instagram、WhatsApp 和 Facebook 在推出新功能时,一直依赖人类审查团队评估潜在风险,包括用户隐私侵犯、未成年人保护以及误导性内容传播等问题。然而,根据 NPR 获得的内部文件,Meta 计划将高达 90% 的风险评估自动化。这一转变意味着其算法的关键更新、新安全功能以及内容共享方式的变更将主要由人工智能系统批准,而不再由人类审查。
这一变化被视为产品开发者的胜利,他们现在能够更快地发布应用程序更新和功能。然而,现任和前任 Meta 员工对此表示担忧,认为自动化决策可能导致更高的风险,尤其是在涉及复杂的社会和隐私问题时。
Meta 在一份声明中表示,已投资数十亿美元支持用户隐私,并强调“人类专业知识”仍将用于处理“新颖和复杂的问题”,只有“低风险决策”被自动化。然而,内部文件显示,Meta 正在考虑对包括 AI 安全、青少年风险和内容完整性等敏感领域进行自动化审查。
前 Meta 员工指出,工程师和产品经理并非隐私专家,他们的主要目标是快速发布产品,而非深入评估潜在风险。自动化审查流程可能导致一些重大风险被忽视,尤其是在缺乏人类审查的情况下。
Meta 淡化了新系统可能引入问题的担忧,指出正在对自动化系统做出的决策进行审计。此外,欧盟用户可能在一定程度上免受这些变化的影响,因为 Meta 的爱尔兰欧洲总部将继续负责欧盟产品和用户数据的决策和监督。
推动这一变化的另一个因素是 Meta 在激烈竞争中的快速行动需求。Meta 表示,大型语言模型在某些政策领域的表现已超越人类,并已开始使用这些 AI 模型筛选不会违反其规则的帖子,从而释放审查员的容量,使其专注于更可能违规的内容。
然而,一些内部人士质疑加快风险评估是否对 Meta 是一个好策略,认为这可能导致更多问题被忽视。Meta 产品首席隐私官 Michel Protti 表示,自动化审查旨在“简化决策”,但一些员工认为,移除人类审查可能低估了这些变化带来的潜在风险。
总的来说,Meta 的这一转变反映了其新重点,即支持更不受限制的言论和更快地更新其应用程序,同时也拆除了多年来为防止平台滥用而设立的各种防护措施。这一重大转变紧随首席执行官马克·扎克伯格努力讨好特朗普总统,扎克伯格称特朗普的选举胜利为“文化转折点”。