AI生成骚扰:澳大利亚活动家遭遇逼真死亡威胁

3次阅读
没有评论

共计 756 个字符,预计需要花费 2 分钟才能阅读完成。

想象一下,当你打开手机时,突然看到一段自己被打、被枪击或被吊死的视频——视频中的人穿着你的衣服,背景看起来完全像你的房间。

这正是澳大利亚活动家凯特琳·罗珀(Caitlin Roper)所经历的。她发现了一些 AI 生成的图像,显示她被烧伤和吊死,而最令人毛骨悚然的是:那些假照片中的女人穿着罗珀真实的蓝色花卉连衣裙。

AI 生成骚扰:澳大利亚活动家遭遇逼真死亡威胁

从网络霸凌到恐怖

曾经仅限于深度伪造色情和名人模仿的 AI 技术,如今已被武器化,用于制造个性化的在线暴力威胁——这标志着一个更加亲密、可信且无法忽视的数字虐待时代的到来。

“这是 AI 驱动骚扰的下一步,”伊利诺伊大学计算机科学教授大卫·迈蒙(David Maimon)表示。“对于受害者来说,幻想和真实危险之间的界限现在非常模糊。”

“这一直是策略的一部分,”民主制度与人权办公室(ODIHR)研究主任凯蒂·克莱曼(Katie Kleeman)说。“改变的是它的发生方式。”

加州大学伯克利分校信息学院的哈尼·法里德(Hany Farid)教授对这种技术发展持悲观态度:“我们将找到令人兴奋的方式使用技术——以及可怕的方式滥用人工智能。”,

低成本。高影响。

过去,AI 内容生成需要高级编辑技能和数小时的艰苦工作,但现在任何人都可以在几分钟内制作虚假图像和视频。只需要一张照片和一些恶意意图。,

AI 骚扰令人恐惧的 3 个原因

  • 它们感觉真实
    深度伪造暴力的心理影响不可低估。书面侮辱可以轻松忽略,但观看自己脸部被“杀死”的视频会触发大脑的原始恐惧反应。
  • 个性化使其更具心理冲击
    当虚假内容包含你的声音、你的衣服或你家的背景时,情感伤害会更深。这不再只是网络残忍;它变成对你数字安全身份的攻击。
  • 它模糊了幻想与危险之间的界限
    受害者会陷入偏执状态,怀疑视频背后的人是否计划在现实世界中采取行动——或者这只是另一种让他们感到不安全的数字折磨形式。
正文完
 0
admin-gah
版权声明:本文于2025-11-04转载自The Hans India,共计756字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码