凌晨3点,硅谷AI实验室突然传出惊呼——马斯克在社交平台连发3个“❗”,转发了一条来自中国的技术论文。这篇由深度求索(DeepSeek)团队发布的成果显示,其新一代大模型训练速度达到行业均值3.2倍,能耗直降40%,甚至突破冯·诺依曼架构的经典算力瓶颈。
一家人工智能初创企业浅浅扇动两下翅膀,即掀起全球科技界的一阵“海啸”。短短30天,中国初创企业深度求索(DeepSeek)先后发布两款性能比肩GPT-4o的大模型,“1/18的训练成本、1/10的团队规模、不分伯仲的模型性能”令硅谷大受震撼。
DeepSeek 是中国的人工智能企业“深度求索”发布的新一代大模型,它在多个方面实现了创新突破。据报道,DeepSeek 日活上线 20 天就已突破 2000 万,其应用上线 5 天日活就超过 ChatGPT 上线同期日活,成为全球增速最快的 AI 应用。
2月7日,国产芯片企业龙芯中科宣布,搭载龙芯3号CPU的设备近日成功启动运行DeepSeek R1 7B模型,实现本地化部署,可为广大用户提供更快、更强、更省的训推体验。这标志着国产芯片与AI大模型的协同适配取得实质性进展,为构建自主可控的人工智能技术生态奠定基础。
2月7日,北京经济技术开发区(北京亦庄)企业龙芯中科官宣:搭载龙芯3号CPU的设备成功启动运行DeepSeek-R1 7B模型,实现本地化部署,性能卓越,成本优异,可为广大用户提供更快、更强、更省的训练推理体验。
21世纪经济报道记者 赵娜 上海报道1月20日,中国人工智能公司深度求索(DeepSeek)发布开源模型DeepSeek-R1,一举成为全球科技行业的焦点。DeepSeek的这一突破引起了众多风险投资人和科技创业者的关注。