《科创板日报》12月30日讯 日前,深度求索DeepSeek-V3横空出世,在AI行业内引发巨震,关键原因之一就是预训练成本之低——这个参数量高达671B的大模型,在预训练阶段仅使用2048块GPU训练了2个月,且只花费557.6万美元。
甲骨文最近宣布,将打造一个由131072个英伟达GB200 NVL72 Blackwell GPU 组成的Zettascale AI 超级集群 ,可提供 2.4 ZettaFLOPS 的 AI 性能,比马斯克的 xAI 算力集群更强大,后者目前拥有100,000个英伟达 H100 GPU显卡。
“目前我国算力总规模位居全球第二位,近五年保持30%左右的年增长率,新增算力设施中智能算力占比过半,成为算力增长的新引擎。”在9月6日的2023中国国际服务贸易交易会“算力服务高质量发展论坛”上,工业和信息化部新闻宣传中心总编辑王保平提到这样一组数据。