Runway发布Gen-3 Alpha模型,AI视频生成技术再升级

119次阅读
没有评论

共计 838 个字符,预计需要花费 3 分钟才能阅读完成。

高质量 AI 生成视频的竞赛正在升温。近日,专注于为电影和图像内容创作者构建生成 AI 工具的公司 Runway,揭晓了其最新的 AI 模型 Gen-3 Alpha。该模型能够根据文本描述和静态图像生成视频片段。Runway 声称,与之前的旗舰视频模型 Gen- 2 相比,Gen-3 Alpha 在生成速度和保真度方面实现了“重大”改进,并提供了对视频结构、风格和动作的精细控制。

Runway 发布 Gen-3 Alpha 模型,AI 视频生成技术再升级

Gen- 3 将在未来几天内向 Runway 的订阅者提供,包括企业客户和参与 Runway 创意合作伙伴计划的公司。Runway 在其博客中写道:“Gen-3 Alpha 能够生成具有广泛动作、手势和情感的富有表现力的人类角色。它被设计用来解释广泛的样式和电影术语,并实现场景中元素的想象过渡和精确关键帧。”

Gen-3 Alpha 的视频片段最长只能达到 10 秒。然而,Runway 联合创始人 Anastasis Germanidis 承诺,Gen- 3 只是即将推出的新一代视频生成模型家族中的第一个,也是最小的一个,这些模型将在升级的基础设施上进行训练。

像所有视频生成模型一样,Gen-3 Alpha 是在大量视频和图像示例上进行训练的,以便它能够“学习”这些示例中的模式来生成新片段。Runway 没有透露训练数据的来源。如今,很少有生成 AI 供应商会自愿提供此类信息,部分原因是他们将训练数据视为竞争优势,因此将其及其相关信息保密。

Runway 表示,它计划发布 Gen- 3 时配备一套新的安全措施,包括一个审核系统,以阻止尝试使用受版权保护的图像和不符合 Runway 服务条款的内容生成视频。此外,还在开发一个来源系统——兼容 C2PA 标准,该标准由微软、Adobe、OpenAI 等支持——以识别视频来自 Gen-3。

视频生成模型的一个主要未解决问题是控制——即让模型生成与创作者艺术意图一致的连贯视频。随着对生成 AI 技术的投资增加,该公司与创意产业紧密结合。但竞争正在变得更加激烈。

要确保视频生成工具不会导致对创意工作的需求急剧下降,将需要非常强大的劳动保护措施。

正文完
 0
admin-gah
版权声明:本文于2024-06-18转载自Techcrunch,共计838字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码