
本內容由人工智能根據現有市場數據及新聞來源生成,僅供參考。其內容不代表《經濟通》之觀點或立場,亦不構成任何投資建議。鑒於AI生成資訊可能存在錯誤、遺漏或偏差,用戶應自行核實相關內容或諮詢專業意見後再作出投資決定。《經濟通》對因依賴本內容而導致之任何損失或損害概不負責。
阿里巴巴31日開源視頻生成模型Wan2.2系列,採用MoE架構,總參數270億,計算消耗降50%。此前Wan2.1模型總下載量540萬次。
事實要點:
▷ 31日阿里巴巴開源Wan2.2系列,含T2V-A14B、I2V-A14B及TI2V-5B,採用MoE架構。
▷ T2V-A14B與I2V-A14B總參數270億,每步激活140億,計算消耗降50%。
▷ 訓練數據較Wan2.1增:圖像65.6%、視頻83.2%。
▷ TI2V-5B採用3DVAE架構,消費級GPU可生成5秒720P視頻。
▷ 2025年2月開源Wan2.1模型總下載量540萬次(截至發稿前)。
阿里巴巴(09988)開源視頻生成模型Wan2.2,採用混合專家(Mixture-of-Experts, MoE)架構,現已於Hugging Face、GitHub及阿里雲開源社區ModelScope開放下載。Wan2.2系列包含文生視頻模型Wan2.2-T2V-A14B、圖生視頻模型Wan2.2-I2V-A14B,以及統一視頻生成模型Wan2.2-TI2V-5B。
公司稱,模型可在單一框架內同時處理文生視頻與圖生視頻任務,且基於MoE架構並經過精選美學數據訓練,當中Wan2.2-T2V-A14B與Wan2.2-I2V-A14B能夠生成具有電影級品質的視頻,且均採用雙模型設計,配有專注整體場景布局的高噪專家模型,與負責細節紋理優化的低噪專家模型。兩款模型總參數達270億,但每步僅激活140億參數,成功降低50%計算消耗。
公司亦稱,相較Wan2.1,Wan2.2模型訓練數據量大幅擴充,其中圖像數據增加65.6%,視頻數據增長83.2%。
另外,全新推出的混合模型Wan2.2-TI2V-5B採用高壓縮率3D VAE架構,僅需消費級GPU即可在數分鐘內生成5秒720P視頻。
阿里巴巴亦提到,曾於2025年2月開源四款Wan2.1模型,並於同年5月發布Wan2.1-VACE(多合一視頻編輯全功能模型)。截至目前,這些模型在Hugging Face與ModelScope的總下載量已突破540萬次。
《經濟通通訊社31日專訊》
【你點睇?】中國上周舉行閱兵,特朗普隨後周五簽令將國防部更名為戰爭部。你認為兩者是否相關?► 立即投票