阿里的通义万相Wan2.1来了!最强的开源视频模型之一!具有强大性能的突破性新图像转视频模型!

1. 目前最佳开源模型:
在图像到视频生成任务上,Wan2.1-14B 模型在数千轮人工评估中优于闭源和开源替代方案,实现了最先进的性能。
2. 支持消费级GPU:
Wan2.1模型仅需要8.19GBVRAM,几乎所有消费级GPU都兼容。在RTX4090上生成5秒480p视频大约需要4分钟(无需量化)其性能甚至可以与一些闭源模型相媲美
3. 视觉文本生成:
Wan2.1是第一个能够生成中英文文本的视频模型,具有强大的文本生成功能,增强了其实际应用。
4. 高分辨率:
该模型能够生成 720P 高清视频
5. 多任务能力:
除了图像到视频生成,Wan2.1 还支持文本到视频、视频编辑、文本到图像和视频到音频方面,都表现非常出色。

文生视频模型:Wan2.1-1.3B和14B两个规格。
图生视频模型:Wan2.1-14B-(480p)和Wan2.1-14B-(720p)

通义万相目前最强的开源视频生成模型
下面我们来看看阿里的通义万相生成的视频有多牛,简直太逼真了!
不得不说阿里现在真的是越来越强了哇!
通义万相2.1的推出,无疑为AI视频生成领域树立了新的标杆。不仅展现了阿里云在AI技术研发上的雄厚实力,也为广大用户和创作者带来了更多的惊喜和可能,相信通义万相2.1将在更多领域发挥重要作用。