首先,性能碾压更高参数模型,经得起AIME24这种“难度天花板”级的硬核数学竞赛检验,在低成本复现 DeepSeek-R1 方面迈出了重要一步:此前,行业尽管已经有许多开源玩家尝试在 72B 或更低的模型上复现 DeepSeek-R1,但在艰难的数学竞赛AIME24 上没有一个能取得与DeepSeek-R1-Distill-Qwen-32B 的得分72.6 类似的表现,值得一提的是,360的工作在 QWQ-32B发布之前就已开源了。
潮新闻 3月3日消息,开源社区Hugging Face最新榜单显示,开源仅6天的阿里万相大模型已登顶模型热榜、模型空间榜两大榜单,成为近期全球开源社区最受欢迎的大模型。根据最新数据,万相2.1(Wan2.
坐在桌子前打开6年前买的电脑,Win10系统依旧流畅运行,这个场景让我突然意识到:曾经在机箱里指点江山的CPU,像极了办公室里游刃有余的老员工——处理日常事务得心应手。但也跟所有单位的老油条一样,面对新事物新挑战时,总会不自觉地望向角落里的年轻同事。
近日,大模型万相2.1重磅开源,此次开源采用Apache2.0协议,14B和1.3B两个参数规格的全部推理代码和权重全部开源,同时支持文生视频和图生视频任务,全球开发者可在Github、HuggingFace、魔搭社区下载体验。
而今天的主角,CausalLM-14B则是在Qwen-14B基础上使用了 Qwen-14B 的部分权重,并且加入一些其他的中文数据集,最终炼制了一个无内容审核的大模型版本,经过量化后可以在本地运行,保证了用户的隐私。