共计 937 个字符,预计需要花费 3 分钟才能阅读完成。
随着 AI 技术的不断进步,高质量 AI 生成视频的竞争愈发激烈。最近,专注于为电影和图像内容创作者提供生成式 AI 工具的公司 Runway,推出了其最新的 AI 模型 Gen-3 Alpha。这一模型能够根据文本描述和静态图像创作出视频片段,标志着 AI 视频生成技术的新里程碑。
Runway 宣称,Gen-3 Alpha 在生成速度和视频质量上相比前一代模型 Gen- 2 有了显著提升,并能提供更为精细的视频结构、风格和动态控制。这一新模型将在未来几天内向 Runway 的订阅用户开放,包括企业客户和参与 Runway 创意合作伙伴计划的创作者。
Gen-3 Alpha 特别擅长创造具有丰富动作、手势和情感的生动人物角色。它被设计来理解和应用多种电影风格和术语,实现场景中元素的创新转换和精确关键帧设置。尽管存在一些限制,如视频片段最长为 10 秒,但 Runway 联合创始人 Anastasis Germanidis 表示,Gen- 3 只是新一代模型中的首个,未来将在升级后的基础设施上进行更多训练。
Germanidis 还提到,Gen-3 Alpha 在处理复杂的人物和物体交互时可能会遇到挑战,且生成的内容不一定完全遵循物理定律。目前,生成一个 5 秒的片段需要 45 秒,而 10 秒的片段则需要 90 秒,生成速度明显快于 Gen-2。
与所有视频生成模型一样,Gen-3 Alpha 通过分析大量视频和图像示例来学习并生成新内容。尽管 Runway 未透露训练数据的来源,但该公司计划在发布 Gen- 3 时引入新的安全措施,包括审核系统以防止使用受版权保护的图像和不符合服务条款的内容生成视频。此外,还将开发一个来源系统,以符合 C2PA 标准,确保视频的真实性和来源可追溯。
Runway 还与多家领先的娱乐和媒体组织合作,开发了定制版的 Gen-3,以满足特定的艺术和叙事需求,确保角色、背景和元素在不同场景中保持一致的外观和行为。
尽管视频生成模型在控制方面仍面临挑战,如传统电影制作中的简单决策在使用生成模型时可能需要变通,但 Runway 已从包括谷歌和英伟达在内的投资者那里筹集了超过 2.365 亿美元,显示出市场对生成式 AI 技术的强烈兴趣。
随着竞争的加剧,其他公司如 Luma 和 Adobe 也在积极开发自己的视频生成技术,预示着 AI 视频生成领域的未来将更加精彩。