共计 756 个字符,预计需要花费 2 分钟才能阅读完成。
想象一下,当你打开手机时,突然看到一段自己被打、被枪击或被吊死的视频——视频中的人穿着你的衣服,背景看起来完全像你的房间。
这正是澳大利亚活动家凯特琳·罗珀(Caitlin Roper)所经历的。她发现了一些 AI 生成的图像,显示她被烧伤和吊死,而最令人毛骨悚然的是:那些假照片中的女人穿着罗珀真实的蓝色花卉连衣裙。
 
从网络霸凌到恐怖
曾经仅限于深度伪造色情和名人模仿的 AI 技术,如今已被武器化,用于制造个性化的在线暴力威胁——这标志着一个更加亲密、可信且无法忽视的数字虐待时代的到来。
“这是 AI 驱动骚扰的下一步,”伊利诺伊大学计算机科学教授大卫·迈蒙(David Maimon)表示。“对于受害者来说,幻想和真实危险之间的界限现在非常模糊。”
“这一直是策略的一部分,”民主制度与人权办公室(ODIHR)研究主任凯蒂·克莱曼(Katie Kleeman)说。“改变的是它的发生方式。”
加州大学伯克利分校信息学院的哈尼·法里德(Hany Farid)教授对这种技术发展持悲观态度:“我们将找到令人兴奋的方式使用技术——以及可怕的方式滥用人工智能。”,
低成本。高影响。
过去,AI 内容生成需要高级编辑技能和数小时的艰苦工作,但现在任何人都可以在几分钟内制作虚假图像和视频。只需要一张照片和一些恶意意图。,
AI 骚扰令人恐惧的 3 个原因
- 它们感觉真实 
深度伪造暴力的心理影响不可低估。书面侮辱可以轻松忽略,但观看自己脸部被“杀死”的视频会触发大脑的原始恐惧反应。 - 个性化使其更具心理冲击 
当虚假内容包含你的声音、你的衣服或你家的背景时,情感伤害会更深。这不再只是网络残忍;它变成对你数字安全身份的攻击。 - 它模糊了幻想与危险之间的界限 
受害者会陷入偏执状态,怀疑视频背后的人是否计划在现实世界中采取行动——或者这只是另一种让他们感到不安全的数字折磨形式。 
正文完