阿里万相视频大模型宣布开源,万万没想到太惊喜。阿里云重磅开源万相2.1模型,开启视觉生成新篇章。2025年2月25日晚,阿里云旗下视觉生成基座模型万相2.1宣布正式开源。此次开源采用了最宽松的Apache2.0协议,不仅14B和1.
界面新闻记者 | 宋佳楠2月25日晚间,阿里巴巴全面开源旗下视频生成模型万相2.1。该模型是阿里云通义系列AI模型的重要组成部分,于2025年1月发布。在权威评测集VBench中,其以总分86.22%的成绩大幅超越Sora、Luma、Pika等国内外模型,稳居榜首位置。万相2.
2月25日晚,阿里巴巴宣布全面开源旗下视频生成模型万相2.1模型。据介绍,此次开源基于Apache2.0协议,14B和1.3B两个参数规格的全部推理代码和权重全部开源,同时支持文生视频和图生视频任务,全球开发者可在Github、HuggingFace和魔搭社区下载体验。
开源热潮卷到了视频大模型。2月25日晚,阿里云深夜抢先开源旗下视觉生成基座模型万相2.1(Wan)。2月18日,昆仑万维开源其旗下面向AI短剧创作的视频生成模型SkyReels-V1、中国首个SOTA级别基于视频基座模型的表情动作可控算法SkyReels-A1。
潮新闻 3月3日消息,开源社区Hugging Face最新榜单显示,开源仅6天的阿里万相大模型已登顶模型热榜、模型空间榜两大榜单,成为近期全球开源社区最受欢迎的大模型。根据最新数据,万相2.1(Wan2.
2月25日,阿里云宣布了一个重磅消息:其视觉生成基座模型万相2.1(Wan)正式开源。据悉,此次开源采用最宽松的Apache2.0协议,14B和1.3B两个参数规格的所有推理代码和权重全部开源,同时支持文生视频和图生视频任务。随着万相的开源,阿里云实现了全模态、全尺寸的开源。