共计 1450 个字符,预计需要花费 4 分钟才能阅读完成。
自 2022 年底首批 AI 视频模型亮相以来,AI 视频技术在多个方面取得了显著进步。然而,对于许多 AI 视频创作者来说,AI 生成角色中真实面部表情的描绘仍然是一个挑战。
但现在,这一问题得到了解决。纽约市的 AI 初创公司 Runway,宣布了一项名为“Act-One”的新功能,允许用户从任何视频摄像头录制视频,并将主体的面部表情以惊人的准确度转移到 AI 生成的角色上。
根据 Runway 的博客文章,这一免费工具将从今天开始逐步向用户推出。虽然任何拥有 Runway 账户的用户都可以访问该功能,但它将仅限于那些拥有足够积分以在 Gen-3 Alpha 视频生成模型上生成新视频的用户。
尽管在发布时该功能目前可用性有限,但蓬勃发展的在线 AI 视频创作者社区已经在为这一新功能喝彩。正如 Allen T. 在他的 X 账户上评论的那样:“这是一个改变游戏规则的功能!”
这也紧随 Runway 进军好莱坞电影制作的步伐,上个月,该公司宣布与 Lionsgate 达成协议,将基于工作室超过 20,000 部作品的目录创建一个定制的 AI 视频生成模型。
简化传统复杂且设备繁重的创意过程
传统上,面部动画需要广泛且通常繁琐的过程,包括动作捕捉设备、手动面部绑定和多重参考素材。然而,在过去几年中,新的软件和基于 AI 的初创公司,如 Move,一直在寻求减少进行准确动作捕捉所需的设备。
通过 Act-One,Runway 旨在使这一复杂过程更加易于访问。新工具允许创作者在各种风格和设计中为角色制作动画,而无需动作捕捉设备或角色绑定。用户可以依赖简单的驱动视频来转置表演,包括视线、微表情和细微的节奏,到生成的角色上,甚至是不同风格中的多个角色。
跨摄像角度的电影级逼真度
Act-One 的关键优势之一在于其能够从各种摄像角度和焦距提供电影级质量的逼真输出。这种灵活性增强了创作者通过角色表演讲述情感共鸣故事的能力。
尽管 Runway 之前支持视频到视频的 AI 转换,但新的 Act-One 功能针对面部映射和效果进行了优化。正如 Valenzuela 通过 X 上的 DM 告诉 VentureBeat 的那样:“Act-One 的一致性和表现是无与伦比的。”
实现更广泛的视频叙事
现在,一个演员只需使用消费级摄像头,就可以扮演多个角色,模型为每个角色生成不同的输出。这一能力有望改变叙事内容创作,特别是在独立电影制作和数字媒体领域。
在 X 上的公开帖子中,Valenzuela 指出,行业对生成模型的方法正在发生变化。“我们现在超越了问自己生成模型是否能生成一致视频的门槛。一个好的模型现在是新的基准。区别在于你如何使用模型——你如何思考其应用和用例,以及你最终构建了什么。”
公众人物模仿的安全与保护
与 Runway 的所有发布一样,Act-One 配备了全面的安全措施。这些措施包括检测和阻止未经授权生成包含公众人物内容的安全措施,以及验证语音使用权利的技术工具。
持续监控还确保平台被负责任地使用,防止工具的潜在滥用。Runway 对道德开发的承诺与其更广泛的任务相一致,即在保持对安全和内容审核的强烈关注的同时,扩展创意可能性。
展望未来
随着 Act-One 逐步推出,Runway 渴望看到艺术家、电影制片人和其他创作者将如何利用这一新工具将他们的想法变为现实。通过减少与角色动画相关的传统技术障碍,该公司希望激发数字媒体领域的全新创意水平。
这也帮助 Runway 在与日益增多的竞争对手中脱颖而出并区分其 AI 视频创作平台,包括美国的 Luma AI、中国的 Hailuo 和 Kling,以及开源竞争对手如 Genmo 的 Mochi 1。