Step-Video-TI2V 是一款先进的文本驱动图像到视频生成模型,它利用扩散模型和专门的时间模块,能够将静态图像转化为具有逼真运动效果的动态视频,同时保持与原始图像的高度一致性。该模型在视频生成质量和运动表现力方面均表现出色,为用户提供了强大的图像动画化能力。
Step-Video 是由阶跃星辰发布、开源的文本到视频预训练模型系列,其中,Step-Video-T2V 是阶跃星辰与吉利汽车合作推出的先进文本到视频模型。
Show-1 是一种高效的文本到视频生成模型,它结合了像素级和潜变量级的扩散模型,既能生成与文本高度相关的视频,也能以较低的计算资源要求生成高质量的视频。
VideoCrafter2 是一个由腾讯 AI 实验室开发的视频生成模型,旨在克服高质量视频数据获取的局限性,训练出能够生成高质量视频的模型。
魔搭 MotionAgent 是由阿里巴巴达摩院旗下魔搭社区(ModelScope)推出的开源一站式视频生成工具,MotionAgent 集成了大语言模型、文本生成图片模型、视频生成模型和音乐生成模型。
Goku 是香港大学与字节跳动合作开发的视频生成模型,支持文本到视频、图像到视频、文本到图像等多种生成任务。基于 Rectified Flow Transformer 架构,通过多模态训练,Goku能够生成自然互动的广告视频,显著降低制作成本。
Open-Sora 是一个致力于高效生成高质量视频的开源项目。该项目由 Colossal-AI 团队开发,旨在通过开源的方式,简化视频生成的复杂性,并为所有人提供一个创新、创造和包容的平台。
FastHunyuan 是一种可以提高 HunyuanVideo 模型推理速度的扩散模型,支持多种视频生成任务。
Hunyuan Video 是一个拥有 130 亿参数的开源 AI 文本转视频生成器,轻松从文本提示创建高质量视频。
通义万相是阿里云推出的视觉生成大模型,涵盖图像和视频生成。其2.0版本在文生图和文生视频方面进行了重大升级,采用 Diffusion Transformer 架构,提升了模型的灵活性和可控性。
Step-Video-TI2V 是一款先进的文本驱动图像到视频生成模型,它利用扩散模型和专门的时间模块,能够将静态图像转化为具有逼真运动效果的动态视频,同时保持与原始图像的高度一致性。该模型在视频生成质量和运动表现力方面均表现出色,为用户提供了强大的图像动画化能力。