时间:2024-02-07|浏览:277
用戶喜愛的交易所
已有账号登陆后会弹出下载
Stability AI 以其不断增长的用于内容创建和编码的开源 AI 模型而闻名,今天宣布升级其图像到视频的潜在扩散模型——稳定视频扩散 (SVD)。
更新后的模型被称为 SVD 1.1,是 SVD 1.0 的微调版本,经过优化可生成具有更好运动和更高一致性的 AI 短视频。
Stability AI 首席技术官 Tom Mason 在宣布升级的帖子中确认,新模型可供公众使用,并可通过 Hugging Face 下载。
他还指出,该模型将作为 Stability 订阅会员资格的一部分提供,该会员资格为个人和企业用户提供不同的级别,包括免费、每月 20 美元及以上。
对于希望出于商业目的部署新的 SVD 1.1 的用户,他们需要申请会员资格。
然而,它仍然开放且免费供研究用途。
Stability AI 的 SVD 1.1 有何期待?
早在 2023 年 11 月,Stability 就推出了两种 AI 视频模型:SVD 和 SVD-XT。
前者是基本模型,它将静态图像作为条件帧,并从中生成最多 14 帧的 4 秒视频。
与此同时,后者是经过微调的版本,其工作方式相同,但最多可生成 25 帧。
现在,在 SVD-XT 的基础上进行微调,Stability 首次推出了 SVD 1.1。
该公司表示,该模型还可以生成 25 帧的 4 秒视频,但在给定相同大小的上下文帧的情况下,分辨率为 1024×576。
更重要的是,与原始型号相比,此次升级预计将提供更一致的视频输出。
例如,在许多情况下,SVD 和 SVD-XT 会错过提供真实感的效果,生成没有运动或摄像机平移速度非常慢的视频,并且无法生成用户期望的面孔和人物。
所有这些预计都会随着 SVD 1.1 的出现而消失,它有望在输出中实现更好的运动。
“微调(针对 SVD 1.1)是通过 6FPS 和运动桶 ID 127 的固定条件进行的,以提高输出的一致性,而无需调整超参数。
这些条件仍然是可调整的并且尚未被删除。
与 SVD 1.0 相比,固定调节设置之外的性能可能会有所不同,”该公司在新模式的 Hugging Face 页面上指出。
实际的AI视频还有待观察
虽然 Stability 声称 SVD 1.1 的性能有所提高,但它在实践中到底如何运作仍有待观察。
该模型的 Hugging Face 页面指出,这是出于研究目的,并警告说,一些原始问题可能仍然会出现。
值得注意的是,除了 Hugging Face 之外,稳定视频扩散模型也可以通过 Stability AI 开发者平台上提供的 API 来使用。
这为开发人员提供了一种将高级视频生成无缝集成到他们的产品中的简单方法。
“......我们发布了稳定的视频扩散 API,它以 24fps 的速度生成 MP4 格式的 4 秒视频,包括 25 个生成的帧和剩余的插值帧。
我们支持运动强度控制以及多种布局和分辨率,包括 1024×576、768×768 和 576×1024,”Mason 在他的帖子中指出。
去年,Stability AI 通过频繁的模型发布推动了生成式 AI 的发展。
2024 年似乎也会出现同样的情况。
该公司成立于 2019 年,已筹集了大量资金,包括 2022 年宣布的 1.01 亿美元融资。然而,它并不是该领域唯一一家运营公司。
Runway 和 Pika 的竞争产品也获得了关注,特别是其面向客户的网络平台不仅可以生成视频,还提供轻松定制和升级视频的选项。
最近,竞争对手 Runway 在其平台上推出了 Multi Motion Brush,允许用户为其 AI 视频的特定部分添加动作。
另一家人工智能视频生成公司 Pika 允许用户修改视频中的特定区域,例如将牛脸换成鸭子脸。
然而,这两个平台仍然不通过 API 提供模型,导致开发人员无法将它们集成到各自的应用程序中。