Runway发布Gen-3 Alpha模型,AI视频生成技术再升级

145次阅读
没有评论

共计 821 个字符,预计需要花费 3 分钟才能阅读完成。

随着 AI 技术的不断进步,高质量 AI 生成视频的竞赛正在升温。最近,Runway 公司发布了其最新的 AI 模型 Gen-3 Alpha,这一模型能够根据文本描述和静态图像生成视频片段。与之前的模型 Gen- 2 相比,Gen-3 Alpha 在生成速度和保真度方面都有显著提升,提供了对视频结构、风格和运动的精细控制。

Runway 发布 Gen-3 Alpha 模型,AI 视频生成技术再升级

Gen-3 Alpha 模型将在未来几天内提供给 Runway 的订阅者,包括企业客户和参与 Runway 创意合作伙伴计划的公司。据 Runway 在其博客上介绍,Gen-3 Alpha 擅长生成具有广泛动作、手势和情感的富有表现力的人类角色,能够解释广泛的样式和电影术语,并实现场景中元素的想象过渡和精确关键帧。

然而,Gen-3 Alpha 也存在一些局限性,最明显的是其视频片段最长只能达到 10 秒。Runway 联合创始人 Anastasis Germanidis 表示,Gen- 3 只是下一代模型家族中的第一个,该家族将在升级的基础设施上训练多个视频生成模型。此外,Gen-3 Alpha 在处理复杂的人物和物体交互方面可能会遇到困难,生成的视频并不总是精确遵循物理定律。

关于训练数据的来源,Runway 并未透露具体信息。在生成 AI 领域,训练数据通常被视为竞争优势,因此相关信息往往被保密。Runway 还计划在发布 Gen- 3 时配备一套新的安全措施,包括一个审核系统,以阻止尝试使用受版权保护的图像和不符合 Runway 服务条款的内容生成视频。

Runway 已与“领先的娱乐和媒体组织”合作,创建了定制版本的 Gen-3,允许更“风格化控制”和一致的角色,针对“特定的艺术和叙事要求”。这一合作意味着生成的角色、背景和元素可以在各种场景中保持一致的外观和行为。

尽管 Gen-3 Alpha 带来了许多创新和改进,但 AI 视频生成技术仍面临一些挑战,如如何让模型生成与创作者艺术意图一致的连贯视频。随着技术的不断发展,生成 AI 视频工具正逐渐改变电影和电视行业的面貌,为创作者提供了更多的可能性。

正文完
 0
admin-gah
版权声明:本文于2024-06-18转载自Techcrunch,共计821字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码