共计 821 个字符,预计需要花费 3 分钟才能阅读完成。
随着 AI 技术的不断进步,高质量 AI 生成视频的竞赛正在升温。最近,Runway 公司发布了其最新的 AI 模型 Gen-3 Alpha,这一模型能够根据文本描述和静态图像生成视频片段。与之前的模型 Gen- 2 相比,Gen-3 Alpha 在生成速度和保真度方面都有显著提升,提供了对视频结构、风格和运动的精细控制。
Gen-3 Alpha 模型将在未来几天内提供给 Runway 的订阅者,包括企业客户和参与 Runway 创意合作伙伴计划的公司。据 Runway 在其博客上介绍,Gen-3 Alpha 擅长生成具有广泛动作、手势和情感的富有表现力的人类角色,能够解释广泛的样式和电影术语,并实现场景中元素的想象过渡和精确关键帧。
然而,Gen-3 Alpha 也存在一些局限性,最明显的是其视频片段最长只能达到 10 秒。Runway 联合创始人 Anastasis Germanidis 表示,Gen- 3 只是下一代模型家族中的第一个,该家族将在升级的基础设施上训练多个视频生成模型。此外,Gen-3 Alpha 在处理复杂的人物和物体交互方面可能会遇到困难,生成的视频并不总是精确遵循物理定律。
关于训练数据的来源,Runway 并未透露具体信息。在生成 AI 领域,训练数据通常被视为竞争优势,因此相关信息往往被保密。Runway 还计划在发布 Gen- 3 时配备一套新的安全措施,包括一个审核系统,以阻止尝试使用受版权保护的图像和不符合 Runway 服务条款的内容生成视频。
Runway 已与“领先的娱乐和媒体组织”合作,创建了定制版本的 Gen-3,允许更“风格化控制”和一致的角色,针对“特定的艺术和叙事要求”。这一合作意味着生成的角色、背景和元素可以在各种场景中保持一致的外观和行为。
尽管 Gen-3 Alpha 带来了许多创新和改进,但 AI 视频生成技术仍面临一些挑战,如如何让模型生成与创作者艺术意图一致的连贯视频。随着技术的不断发展,生成 AI 视频工具正逐渐改变电影和电视行业的面貌,为创作者提供了更多的可能性。