每经记者:岳楚鹏 每经编辑:兰素英2月10日,清华大学KVCache.AI团队联合趋境科技发布的KTransformers开源项目迎来重大更新,成功打破大模型推理算力门槛。此前,拥有671B参数的MoE架构大模型DeepSeek-R1在推理时困难重重。
如图所示,KTransformers 团队于 2 月 10 日成功在 24G 显存 + 382 GB 内存的 PC 上实现本地运行 DeepSeek-R1、V3 的 671B 满血版,速度提高 3~28 倍。
然而,最近由清华大学KVCache.AI团队和趋境科技联合发布的KTransformers项目,带来了一项令人振奋的突破:只需一块24G显存的4090显卡,就能在本地顺畅运行DeepSeek-R1的671B“满血版”。
2025 年春节,AI 圈可是炸开了锅,主角就是中国 AI 公司 DeepSeek 推出的最新模型。在这股热潮中,清华大学新闻与传播学院新媒体研究中心元宇宙文化实验室编写的《DeepSeek:从入门到精通》,就像一场及时雨,给众多渴望深入了解和运用 DeepSeek 的人带来了福音。
来源:环球时报 【环球时报报道 记者 刘扬】连日来,中国多家互联网大厂纷纷宣布将大热的国产开源大模型DeepSeek接入自家搜索功能,引发外界高度关注。微信已为搜索功能接入DeepSeek-R1模型,目前处于小范围灰度测试中,可供部分用户免费使用。
【今日导读】 多地宣布已将DeepSeek应用于政务系统,这个重要细分领域有望加速发展 国内外产业端迎来密集催化,目前这类产品进入工业场景 该企业高阶智驾驶车成功交付,提效+降本加速智驾渗透率提升 微信确认接入DeepSeek,机构称算力云服务商有望获益 全球最薄折叠屏手机OPP