2024年选举中的AI语音克隆风险

97次阅读
没有评论

共计 579 个字符,预计需要花费 2 分钟才能阅读完成。

2024 年的选举可能是第一个受到虚假音频和视频严重影响的大选。随着竞选活动的升温,选民应当警惕:一项新研究显示,主要政治人物的语音克隆,从总统到下属,得到了 AI 公司极少的反对。

数字仇恨打击中心研究了六种不同的 AI 驱动语音克隆服务:Invideo AI、Veed、ElevenLabs、Speechify、Descript 和 PlayHT。他们尝试让这些服务克隆八位主要政治人物的声音,并生成五个虚假陈述。在 240 个请求中,有 193 个请求得到了响应,生成了令人信服的伪造政治人物的音频,让他们说出他们从未说过的话。

例如,一个虚假的英国首相里希·苏纳克说:“我知道我不应该使用竞选资金支付个人开支,这是错误的,我诚挚道歉。”这些陈述的真实性难以辨别,因此服务商允许这些陈述并不完全令人惊讶。

在这六种服务中,只有 ElevenLabs 阻止了声音克隆的创建,因为根据他们的政策,复制公众人物是不允许的。然而,这些人物创造了 14 个虚假陈述,我已经请求 ElevenLabs 发表评论。

Invideo AI 表现最差。它不仅未能阻止任何录音,甚至为一位虚假的拜登总统生成了一个改进的脚本,警告投票站存在炸弹威胁。在测试该工具时,研究人员发现,基于简短提示,AI 自动创作整个脚本,推断并创造自己的虚假信息。

如果这样的平台无法或不愿执行他们的政策,我们可能会在这个选举季节面临克隆流行病。

正文完
 0
admin-gah
版权声明:本文于2024-06-01转载自Techcrunch,共计579字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码