共计 2014 个字符,预计需要花费 6 分钟才能阅读完成。
在 TikTok 上长时间刷屏,你可能会遇到一些 AI 视频应用的广告。这些广告展示的场景看似无害,却透露出一种令人不安的诡异感。例如,在一个广告中,一个书呆子女孩上传了她和暗恋对象的照片,AI 瞬间将他们合成在一起,仿佛在接吻。另一个广告则展示了一位穿着衬衫和牛仔裤的女性,广告随后通过 AI 将她“换装”成蓝色比基尼。这些应用并非在兜售深度伪造的裸体,而是通过订阅费和小额交易,推销一些看似无害的幻想工具。然而,这些工具的效果却让人感到不适,甚至有些恶心。
这些应用,如 Boom.AI、VideoAI 和 DreamVid,由一些名不见经传的公司开发。虽然它们的宣传材料充满吸引力,但实际提供的功能却显得廉价且令人不安。用户可以通过上传照片,改变头发颜色、举起标志,甚至与《龙珠 Z》中的悟空拥抱。然而,这些功能背后隐藏着更为微妙且令人不适的选项。例如,DreamVid 提供了一个“增强”功能,可以让用户为照片中的人物“隆胸”,广告中展示了一位 B 罩杯的女性瞬间变成 DD 罩杯,并“顽皮”地摇晃着她的新胸部。AI 舞蹈类别则充斥着穿着暴露的女性挑逗地摇摆臀部。
这种内容的混合似乎是经过精心设计的。就在你感到比基尼和胸部内容过多时,应用会突然展示可爱的 AI 猫、吉卜力工作室风格的滤镜,或是慈祥的奶奶形象。然而,DreamVid 的 AI 每日穿搭选项中,12 套服装中有 6 套是比基尼或泳装,其余则是暴露的女仆装、内衣、女学生制服和哥特洛丽塔 cosplay。只有婚纱和旗袍相对无害,而这些功能几乎完全针对女性用户。
广告中的视频效果处于“足够真实”的模糊地带,既让人感到不适,又引发好奇心。然而,当你亲自尝试时,AI 的缺陷便暴露无遗。接吻视频显得尴尬,仿佛幼儿想象中的接吻,脸和嘴唇机械地挤在一起。拥抱则显得僵硬,四肢和手的摆放令人怀疑。如果照片没有对齐,AI 会试图缩放身体,导致搞笑的效果。衣服、头发、配饰和面部特征经常在视频中途消失或出现。
AI 系统长期存在的种族偏见问题在这些应用中尤为明显。当用户将不同种族的主体配对时,AI 往往会混淆特征。例如,非亚洲名人暗恋对象有时会自发地发展出亚洲特征,而用户的特征则可能被“欧化”以匹配配偶。多个 AI 应用甚至坚持认为接吻双方通常应该是同一种族。当生成一个求婚视频时,AI 竟然让用户的配偶转身向一个随机出现的白人女性求婚。
这些应用并非免费,大多数收取小额交易费和订阅费,每周从 2.99 美元到 7.99 美元不等,或每年从 49.99 美元到 69.99 美元不等。这种财务模型与 AI 裸体应用相似,尽管内容不同。追踪这些应用的资金来源发现,Videa: AI Video Maker 由土耳其伊斯坦布尔的 Pure Yazlim Limited Sirketi 公司开发,Boom.AI 则由 NineG 公司运营,后者还开发了 Mozart AI 歌曲生成器、Plum AI 艺术生成器等应用。DreamVid 则由深圳 iMyFone 科技有限公司运营,该公司还开发了吉卜力工作室生成器和其他实用应用。
与 OpenAI 的 Sora 或谷歌的 Veo 等通用视频生成器相比,这些应用显得简单且宽松。在 Sora 上生成一个接吻视频需要编写文本提示、上传照片并通过年龄验证,而 Veo 则会拒绝性暗示或有害刻板印象的提示。然而,在这些 AI 应用中,用户只需上传照片,系统便会自动生成内容,无需任何复杂的操作。
尽管这些应用的内容相对温和,但它们仍处于应用商店和平台审核政策的模糊地带。谷歌发言人 Danielle Cohen 表示,Google Play 商店不允许包含性满足内容或服务的应用,也不允许使用性明确的广告。苹果的应用商店指南则禁止“冒犯性、不敏感、令人不安”的内容,但没有明确针对这些应用的广告规则。Meta 发言人 Faith Eischen 表示,公司有明确的规则反对裸体和性剥削,包括非自愿的亲密图像,无论是真实的还是 AI 生成的。
虽然这些应用的功能涉足令人不安的领域,但它们也提供了一些有趣的用例。例如,性别酷儿用户使用 AI 模板来探索自己作为不同性别的样子,帮助他们理清感受。接吻模板也可以用于浪漫小说创作。然而,这些应用的核心问题在于,它们将无害的幻想与令人毛骨悚然的内容不可分割地混合在一起。
在某些情况下,这些应用甚至被用于处理个人情感。例如,一位用户通过 AI 生成了已故母亲的视频信息,以安慰患有痴呆症的奶奶。尽管 AI 未能完美捕捉母亲的本质,但生成的视频仍然让家人感到安慰。另一位用户则通过 AI 生成了已故父亲在婚礼上拥抱她的场景,尽管效果不佳,但这一尝试让她在某种程度上找到了情感上的慰藉。
AI 的积极用例确实存在,但问题在于我们希望在 AI 中看到什么样的自己。这些应用并非本质上有害,但它们的使用方式和内容设计引发了深刻的伦理和情感问题。平台在审核这些应用时,需要更清晰地界定何为“冒犯性”或“令人不安”的内容,而用户则需要反思,这些工具是否真正满足了他们的需求,还是仅仅在满足某种扭曲的幻想。