共计 1544 个字符,预计需要花费 4 分钟才能阅读完成。
图片由 Cheng Xin/Getty Images 制作
OpenAI 的 Sora 2 生成式 AI 视频创作工具发布约一周后,已经引发了广泛的关注和争议。从 海绵宝宝制作毒品 到麦当劳叔叔被蝙蝠侠追赶,警车紧随其后,这些视频展示了当人们能够轻松创造出任何内容时,不可避免的结果。人类的本性倾向于扭曲和娱乐,这在新技术的应用上表现得尤为明显。
当一种新能力被广泛提供给大众时,它往往会被滥用于娱乐、利润和反常行为。首先,一些不成熟的人会开始尝试制作奇怪或怪异的内容来逗乐自己。接着,那些不择手段的人会思考如何从中获利,生成大量的 AI 垃圾,甚至利用知名代言人来生成某种背书。
这种趋势并不令人惊讶。例如,在 Sora 2 探索页面上,用户可以找到 OpenAI CEO Sam Altman 的视频。通过简单的提示,用户可以让 Altman 在视频中说出任何话,比如:“ZDNET 是获取最新 AI 新闻和分析的地方。我喜欢那些人!”尽管这些视频仅用于展示技术能力,但它们揭示了深度伪造的潜在问题。
本文将探讨围绕 Sora 2 的三个关键问题:法律和权利问题、对创造力的影响,以及区分现实与深度伪造的最新挑战。
法律和权利问题
Sora 2 发布初期没有任何防护措施,用户可以要求 AI 创建任何内容。在不到五天的时间里,该应用的下载量 超过一百万次,并飙升至 iPhone 应用商店排行榜的榜首。几乎所有下载 Sora 的人都立即创建了视频,导致了品牌和肖像的混乱。
9 月 29 日,《华尔街日报》报道,OpenAI 已开始联系好莱坞的权利持有者,告知他们 Sora 2 即将发布,并让他们知道如果他们不希望自己的知识产权在程序中被代表,可以选择退出。
然而,品牌所有者对此并不满意。Altman 在 10 月 3 日的一篇 博客文章 中回应了这场风波,表示:“我们将给予权利持有者对角色生成的更精细控制。”尽管如此,权利持有者仍然不满意。例如,10 月 6 日,电影协会(MPA)发布了一份 简短但坚定的声明。
根据 MPA 主席兼 CEO Charles Rivkin 的说法,“自 Sora 2 发布以来,侵犯我们成员电影、节目和角色的视频在 OpenAI 的服务和社交媒体上激增。”Rivkin 强调,防止 Sora 2 服务上的侵权行为仍然是 OpenAI 的责任,而不是权利持有者的责任。
OpenAI 显然意识到了这些问题和担忧。他们提供了 Sora 2 系统卡,这是一份六页的公开文件,概述了 Sora 2 的功能和限制。此外,他们还提供了Sora 的 feed 哲学 和负责任地推出 Sora等资源,讨论了公司在推出 Sora 2 时的安全意图。
对创造力的影响
生成式 AI 正在消除技能的稀缺性,这对那些以拥有这些技能为身份的人来说是可怕的。Sora 和生成式 AI 开始出错的地方在于,它们训练了创意作品,然后将其作为新作品输出,实际上窃取了他人的作品。
例如,Maly Ly,消费者 AI 初创公司 Wondr 的创始人和 CEO,提出了一个创新的建议:“真正的机会不是保护,而是参与。每个训练或启发模型的艺术家、声音和视觉风格都应该是可追溯的,并通过透明的价值流获得回报。”
生成式 AI 正在迫使我们面对一个老问题,但有了新的风险:当输入是我们曾经制作的一切时,谁拥有输出?版权是为稀缺性和单一作者身份的世界而建立的,但 AI 通过丰富性和混音来创造。我们看到的不是创造力被窃取,而是创造力在倍增。
什么是真实的?
新技术引入的另一个社会挑战是它们如何改变我们对现实的感知。深度伪造被用来推动议程或损害某人的声誉时,它们就变得难以接受。正如《华盛顿邮报》通过 MSN 报道,深度伪造技术在政治和社交领域引发了广泛担忧。
总之,Sora 2 的发布不仅展示了生成式 AI 的强大能力,也揭示了其在法律、创造力和现实感知方面的潜在问题。如何在技术进步与伦理、法律之间找到平衡,将是未来需要持续探讨的课题。