阿里开源通义万相2.2

2025-07-29 10:51:50 来源: 科技日报 点击数:

科技日报记者 崔爽

7月28日晚,继上周阿里AI“三连发”后,阿里再次发布新的开源模型——电影级视频生成模型通义万相Wan2.2。Wan2.2将光影、色彩、镜头语言三大电影美学元素装进模型,可以随意组合60多个直观可控的参数,大幅提升电影级画面的制作效率。

目前模型单次可生成5s的高清视频,用户可通过多轮提示词进一步完成短剧制作,未来通义万相还将继续提升单次视频生成的时长,让视频创作更高效。

据介绍,Wan2.2此次共开源文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)和统一视频生成(Wan2.2-TI2V-5B)三款模型,总参数量为27B,均由高噪专家模型和低噪专家模型组成,分别负责视频的整体布局和细节完善,在同参数规模下,可节省约50%的计算资源消耗。

Wan2.2还首创电影美学控制系统,光影、色彩、构图等能力比肩专业电影水平,例如用户输入黄昏、暖色调、中心构图等关键词,模型可自动生成金色的落日余晖画面。

另外,通义万相还开源了一款5B小尺寸的统一视频生成模型,单一模型同时支持文生视频和图生视频,可在消费级显卡部署。该模型通过一系列技术创新,仅需22G显存(单张消费级显卡)即可在数分钟内生成5秒高清视频,是目前24帧每秒、720P像素级视频生成速度最快的基础模型之一。

据悉,即日起,开发者可在GitHub、HuggingFace、魔搭社区下载模型和代码。

数据显示,今年2月以来,通义万相连续开源文生视频、图生视频、首尾帧生视频和全能编辑等多款模型,在开源社区的下载量已超500万。

责任编辑:冷媚

抱歉,您使用的浏览器版本过低或开启了浏览器兼容模式,这会影响您正常浏览本网页

您可以进行以下操作:

1.将浏览器切换回极速模式

2.点击下面图标升级或更换您的浏览器

3.暂不升级,继续浏览

继续浏览