阿里AI四连发,宣布开源电影级视频模型Wan2.2

2025年07月28日,21时51分06秒 科技新知 阅读 6 views 次

 

阿里AI四连发,宣布开源电影级视频模型Wan2.2

新浪科技讯 7月28日晚间消息,继上周阿里AI三连发后,阿里又扔出新的开源模型——电影级视频生成模型通义万相Wan2.2。Wan2.2可将光影、色彩、镜头语言三大电影美学元素装进模型,随意组合60多个直观可控的参数,大幅提升电影级画面的制作效率。

目前,该模型单次可生成5s的高清视频,用户可通过多轮提示词进一步完成短剧制作,未来通义万相还将继续提升单次视频生成的时长,让视频创作更高效。

据悉,Wan2.2此次开源了文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)和统一视频生成(Wan2.2-TI2V-5B)三款模型,其中文生视频模型和图生视频模型均为业界首个使用MoE架构的视频生成模型,总参数量为27B,激活参数14B,均由高噪声专家模型和低噪专家模型组成,分别负责视频的整体布局和细节完善,在同参数规模下,可节省约50%的计算资源消耗,有效解决视频生成处理Token过长导致的计算资源消耗大问题,同时在复杂运动生成、人物交互、美学表达、复杂运动等维度上也取得了显著提升。

此外,Wan2.2还首创了电影美学控制系统,光影、色彩、构图、微表情等能力媲美专业电影水平。例如,用户输入黄昏、柔光、边缘光、暖色调、中心构图等关键词,模型可自动生成金色的落日余晖的浪漫画面;使用冷色调、硬光、平衡图、低角度的组合,则可以生成接近科幻片的画面效果。(文猛)

海量资讯、精准解读,尽在新浪财经APP

责任编辑:何俊熹

(来源:新浪科技)

标签:


用户登录