共计 528 个字符,预计需要花费 2 分钟才能阅读完成。
近日,AI 初创公司 Runway 宣布推出其最新视频生成模型 Gen-4,该技术突破性地解决了 AI 生成视频在多镜头场景中的一致性问题,为用户提供了更强的叙事控制力。
据 Runway 官方公告,Gen-4 模型允许用户通过单一参考图像,在多个镜头中生成保持一致的场景和人物。用户只需描述所需构图,模型即可从不同角度生成连贯的视频内容。这一技术突破解决了长期以来 AI 生成视频在叙事连续性上的痛点。
为展示新模型的性能,Runway 发布了一段演示视频,展示了一位女性在不同镜头和光照条件下保持外观一致性的效果。这种突破性的场景一致性为创作者提供了更强大的叙事工具,使他们能够在更复杂的场景中讲述完整的故事。
值得注意的是,此次 Gen-4 的发布距离 Runway 推出 Gen-3 Alpha 模型不到一年。Gen-3 Alpha 虽然延长了视频生成长度,但也因训练数据来源问题引发争议。据报道,该模型使用了数千个从 YouTube 视频和盗版电影中抓取的内容进行训练。
目前,Gen-4 模型已开始向付费用户和企业客户开放。这项技术的推出标志着 AI 视频生成领域的一个重要里程碑,为创作者提供了前所未有的创作自由度和控制力。随着技术的不断进步,AI 视频生成在电影制作、广告创作等领域的应用前景令人期待。