共计 1490 个字符,预计需要花费 4 分钟才能阅读完成。
随着 AI 技术的不断进步,高质量 AI 生成视频的竞赛正在升温。最近,专注于为电影和图像内容创作者构建生成式 AI 工具的公司 Runway,揭晓了其最新的 AI 模型 Gen-3 Alpha。这一模型能够根据文本描述和静态图像生成视频片段,与之前的旗舰视频模型 Gen- 2 相比,Gen- 3 在生成速度和保真度方面实现了显著提升,并提供了对视频结构、风格和动作的精细控制。
Gen- 3 将在未来几天内向 Runway 的订阅者提供,这包括企业客户和 Runway 创意合作伙伴计划中的创作者。Runway 在其博客中提到,Gen-3 Alpha 能够生成具有广泛动作、手势和情感的富有表现力的人类角色,并能够解释广泛的风格和电影术语,实现场景中元素的想象过渡和精确关键帧。
尽管 Gen-3 Alpha 存在一些限制,如视频片段最长为 10 秒,但 Runway 联合创始人 Anastasis Germanidis 表示,Gen- 3 只是下一代模型家族中的第一个,该家族将在升级的基础设施上训练多个视频生成模型。他还提到,该模型在处理复杂的人物和物体交互方面可能会遇到困难,生成的视频有时无法精确遵循物理定律。
Runway 计划在发布 Gen- 3 时配备一套新的保护措施,包括一个审核系统,防止使用受版权保护的图像和不符合 Runway 服务条款的内容生成视频。此外,还在开发一个来源系统,兼容 C2PA 标准,以识别视频来自 Gen-3。Germanidis 强调,他们新的改进后的内部视觉和文本审核系统通过自动监控来过滤掉不适当或有害的内容,C2PA 认证证实了使用所有 Gen- 3 模型创建的媒体的来源和真实性。
Runway 还透露,它已与“领先的娱乐和媒体组织”合作,创建了定制版本的 Gen-3,允许更“风格化控制”和一致的角色,针对“特定的艺术和叙事要求”。这意味着生成的角色、背景和元素可以在各种场景中保持一致的外观和行为。
视频生成模型的一个主要未解决问题是控制——即让模型生成与创作者艺术意图一致的连贯视频。在使用生成模型时,传统电影制作中的简单事项,如选择角色服装的颜色,需要采取特殊方法,因为每个镜头都是独立创建的。有时甚至变通方法无效,留给编辑大量的手动工作。
Runway 已从投资者那里筹集了超过 2.365 亿美元,包括谷歌(与其有云计算合作关系)和英伟达,以及 Amplify Partners、Felicis 和 Coatue 等风险投资公司。随着对生成式 AI 技术的投资增加,该公司与创意行业紧密结合。
竞争正在变得更加激烈。生成式 AI 初创公司 Luma 上周宣布了 Dream Machine,这是一个视频生成器,因其能够动画化表情包而受到关注。就在几个月前,Adobe 宣布它也在开发自己的视频生成模型,该模型在其 Adobe Stock 媒体库的内容上进行训练。其他地方,还有像 OpenAI 的 Sora 这样的现有产品,它仍然受到严格控制,但 OpenAI 已经提供给营销机构和独立及好莱坞电影导演。
无论各种合作如何发展,有一点变得越来越清楚:生成式 AI 视频工具可能颠覆我们所知的电影和电视行业。电影制作人 Tyler Perry 最近表示,他在看到 Sora 的能力后暂停了 8 亿美元的扩建计划。《复仇者联盟:终局之战》等大片导演 Joe Russo 预言,一年之内,AI 将能够制作一部完整的电影。2024 年由动画工会委托进行的一项研究发现,75% 采用 AI 的电影制作公司在整合技术后减少了工作岗位。该研究还估计,到 2026 年,超过 10 万个美国娱乐行业的工作岗位将受到生成式 AI 的影响。为了确保视频生成工具不会跟随其他生成式 AI 技术的脚步,导致对创意工作的需求急剧下降,需要强有力的劳动保护措施。