如图所示,KTransformers 团队于 2 月 10 日成功在 24G 显存 + 382 GB 内存的 PC 上实现本地运行 DeepSeek-R1、V3 的 671B 满血版,速度提高 3~28 倍。
每经记者:岳楚鹏 每经编辑:兰素英2月10日,清华大学KVCache.AI团队联合趋境科技发布的KTransformers开源项目迎来重大更新,成功打破大模型推理算力门槛。此前,拥有671B参数的MoE架构大模型DeepSeek-R1在推理时困难重重。
◎窦世平 记者 李雁争“DeepSeek火了以后,我在的几个微信群就‘炸’了。同行们都在讨论,为什么会错过DeepSeek?DeepSeek会带来什么改变?怎样才能不错过下一个机会?”近日,一位投资人对上海证券报记者说。
DeepSeek在多家医院完成本地化部署;微信测试接入DeepSeek;部分地区政务系统已接入……众多行业产业与DeepSeek“联姻结对”的消息接踵而至,令人不禁思考:AI正在加速接入我们的生活,究竟会带来什么?