Sa2VA 是字节跳动联合加州大学默塞德分校、武汉大学和北京大学共同推出的多模态大语言模型,是 SAM2 和 LLaVA 结合而成,能实现对图像和视频的密集、细粒度理解。
Pippo 是 Meta Reality Labs 推出的图像到 视频生成 模型,能从单张照片生成 1K 分辨率的多视角高清人像视频。
PixVerse V系列包含从 PixVerse v1 到最新的 v4,这些模型在生成视频时注重画质和动作流畅性,随着版本迭代,性能、功能均有所提升。
Stable Video Diffusion 是 Stability AI 发布的一种开源潜在扩散模型,支持文本生成视频和图像生成视频以及物体从单一视角到多视角的 3D 合成。
Pika Labs 推出的 AI 视频生成工具,Pika 1.0、1.5、2.0 等迭代版本在前代产品的基础上都进行了重大更新,提供了更多的用户控制和定制化功能。
Luma Ray 是 Luma AI 推出的视频生成模型,Ray 2 是其最新版本。Ray2 基于 Luma 新的多模态架构训练后展现出先进功能,该架构的计算能力是 Ray 1 的 10 倍。
Runway Gen系列包括 Runway Gen-2 和其后续升级版本 Runway Gen-3,这些模型专注于从文本到视频的转换,展示了在物体运动和场景生成方面的进步。
Sora 由 OpenAI 于 2024 年 2 月推出,Sora 模型因其生成逼真视频的能力而受到关注,能够根据简短的文字指令生成长达 60 秒的高清视频。
Sa2VA 是字节跳动联合加州大学默塞德分校、武汉大学和北京大学共同推出的多模态大语言模型,是 SAM2 和 LLaVA 结合而成,能实现对图像和视频的密集、细粒度理解。