凌晨3点,硅谷AI实验室突然传出惊呼——马斯克在社交平台连发3个“❗”,转发了一条来自中国的技术论文。这篇由深度求索(DeepSeek)团队发布的成果显示,其新一代大模型训练速度达到行业均值3.2倍,能耗直降40%,甚至突破冯·诺依曼架构的经典算力瓶颈。
一家人工智能初创企业浅浅扇动两下翅膀,即掀起全球科技界的一阵“海啸”。短短30天,中国初创企业深度求索(DeepSeek)先后发布两款性能比肩GPT-4o的大模型,“1/18的训练成本、1/10的团队规模、不分伯仲的模型性能”令硅谷大受震撼。
DeepSeek-R1火遍海内外,但推理服务器频频宕机,专享版按GPU小时计费的天价成本更让中小团队望而却步。而市面上所谓“本地部署”方案,多为参数量缩水90%的蒸馏版,背后原因是671B参数的MoE架构对显存要求极高——即便用8卡A100也难以负荷。
如图所示,KTransformers 团队于 2 月 10 日成功在 24G 显存 + 382 GB 内存的 PC 上实现本地运行 DeepSeek-R1、V3 的 671B 满血版,速度提高 3~28 倍。
中国人工智能初创公司DeepSeek在过去一周成为硅谷热议的对象,并触发了本周一美国科技股“崩盘”。1月29日,OpenAI最新称,它发现有证据表明中国人工智能初创公司DeepSeek使用其专有模型来训练自己的开源模型,并暗示这可能违反了OpenAI的服务条款。
中国AI大模型Deepseek在美国科技界引发的“海啸”仍在持续,此前“大地震”发生在1月27日,美国股市英伟达和一众“AI概念股”的股价大跌一万多亿美元,仅英伟达的市值就损失了五千多亿美元,美国科技股多轮暴跌,目前下跌趋势还未止住。