共计 747 个字符,预计需要花费 2 分钟才能阅读完成。
最近,AI 视频领域的新模型层出不穷,让人眼花缭乱。从 OpenAI 的 Sora 到 Google 的 Veo 2,再到 Minimax 的 video-01-live,每一个新发布的模型都引起了广泛关注。然而,在这些商业模型中,腾讯新推出的开源 AI 视频合成模型 HunyuanVideo 显得尤为特别。
HunyuanVideo 的神经网络权重是公开的,这意味着只要有合适的硬件,你就可以在本地运行它。这种开源的特性让人想起了 Stable Diffusion,它不仅提供了灵活的使用方式,还允许用户通过微调或使用 LoRAs 来教它一些新东西。
今年,中国公司在 AI 视频领域的进展迅速,这可能与他们对版权问题和敏感内容的处理方式有关。HunyuanVideo 在这方面表现得比较“开放”,生成的视频内容可以非常逼真,甚至包括一些解剖学上非常细致的裸体人类视频。
为了测试 HunyuanVideo,我使用了之前测试 Runway 的 Gen-3 Alpha 和 Minimax 的 video-01 时用过的提示。每个五秒长的 864 × 480 视频生成大概需要七到九分钟,成本大约 0.70 美元。虽然不是免费的,但考虑到它的开源特性和本地运行能力,这个成本还是可以接受的。
总的来说,HunyuanVideo 的表现和 Gen-3 Alpha、Minimax video-01 差不多,考虑到它是免费的,还能在本地运行,这已经相当不错了。虽然还有一些小问题,比如名人图像的审查和解剖结构的准确性,但它的潜力和可能性让人充满期待。
随着时间的推移,HunyuanVideo 可以在更高分辨率下进行微调,最终生成更高质量的免费视频,甚至可能被用于视频制作,或者引发一些定制视频内容的创作。总的来说,HunyuanVideo 的出现让我觉得,开源 AI 视频模型已经开始在这个领域扎根了。