来源:新华网 新华网北京2月26日电(记者张漫子)阿里云旗下视觉生成基座模型万相2.1(Wan)25日正式开源。14B、1.3B两个参数规格的全部推理代码和权重全部开源,同时支持文生视频、图生视频任务。
事实上,过去一年,阿里巴巴在 AI 方面持续发力,包括阿里云推出通义千问、通义万相等多款对标 OpenAI 的 AI 大模型产品,以及基于双流条件扩散模型的真人百变换装技术Outfit Anyone、角色动画模型Animate Anyone等技术,实现多个场景应用。
2月25日,阿里云旗下视觉生成基座模型万相2.1(Wan)正式开源,此次开源采用最宽松的Apache2.0协议,14B和1.3B两个参数规格的全部推理代码和权重全部开源,同时支持文生视频和图生视频任务,全球开发者可在Github、HuggingFace和魔搭社区下载体验。
据报道,阿里生成基座模型万相2.1宣布开源,在评测集中,超越 Sora、Luma等模型,位列榜首。获悉,万相2.1共有两个参数规模,140亿参数模型适用于对生成效果要求更高的专业人士,13亿参数模型生成速度较快且能兼容所有消费级GPU,两个模型的全部推理代码和权重已全部开源。
2月25日,阿里云宣布了一个重磅消息:其视觉生成基座模型万相2.1(Wan)正式开源。据悉,此次开源采用最宽松的Apache2.0协议,14B和1.3B两个参数规格的所有推理代码和权重全部开源,同时支持文生视频和图生视频任务。随着万相的开源,阿里云实现了全模态、全尺寸的开源。