【北京智源人工智能研究院林咏华:国内AI芯片的大模型训练性能与国外约有三年差距】《科创板日报》29日讯,北京智源人工智能研究院副院长、总工程师林咏华表示,当前中国AI芯片的大模型集群训练性能,只有个别接近英伟达A100/A800,大多数不到50%。
·谷歌第五代定制张量处理器(TPU)芯片TPU v5e用于大模型训练和推理,训练和运行AI模型的速度提高了5倍。与上一代芯片相比,TPU v5e每一美元的训练性能提高2倍,每一美元的推理性能提高2.5倍。
拜登政府在任期的最后阶段打出了一张重量级监管牌。2025 年 1 月 13 日,美国商务部工业与安全局(BIS)正式发布了一项史上最为严格的全球 AI 管控新规,这是美国首次全面规范 AI 芯片和模型在全球范围内的扩散。
5月8日消息,海通证券研报指出,小模型展现性能,边缘AI芯片有望加速落地。边缘AI芯片有望搭载小模型弥补大模型局限。尽管云端大模型在性能上全面超越小模型,但它们也存在一些局限性,包括较高的成本、运行速度以及对互联网连接的依赖。
近日,北京经济技术开发区(北京亦庄)企业龙芯中科官宣:搭载龙芯3号CPU的设备成功启动运行DeepSeek-R1 7B模型,实现本地化部署,性能卓越,成本优异,可为广大用户提供更快、更强、更省的训练推理体验。
随着DeepSeek爆火,越来越多的企业选择与其进行深度融合。2月8日,中国芯片企业中星微技术宣布旗下星光智能系列AI芯片、解决方案全面融合DeepSeek大模型能力,通过“XPU芯片+大模型”的双引擎驱动,在行业应用、知识管理、边缘计算等领域实现技术突破。
来源:环球网 【环球网财经综合报道】龙芯中科官方微信号2月7日发布消息称,近日,搭载龙芯3号CPU的设备成功启动并运行了DeepSeek R1 7B模型,实现了本地化部署。DeepSeek自发布以来,凭借其出色的性能表现和低成本训练模式,迅速吸引了全球范围内的广泛关注。
【中国工程院院士郑纬民:开展基于国产AI芯片大模型基础设施研究 要关注整体系统工程化和超算租赁】《科创板日报》4日讯,在第二届开放原子开源基金会OpenHarmony技术大会,中国工程院院士郑纬民表示,要大力开展基于国产AI芯片大模型基础设施研究,要改变国产卡的生态系统不好的局面
界面新闻记者 | 彭新界面新闻编辑 | “产业应用会驱动底层技术的创新,在大模型出现之前,AI的发展本身就推动了很多底层技术,比如HBM高带宽的存储技术,算力从传统计算到AI计算产生。大模型相比于之前的AI计算,它对算力、存储、带宽的需求又往上提升了比较大的台阶。
Wafer Scale Engine-2——顾名思义,蚀刻在单个 7 nm 晶圆上,通常足以容纳数百个主流芯片——具有惊人的 2.6 万亿个 7 nm 晶体管,将850,000 个内核和 40 GB 集成缓存封装在一个大约 15kW功率的芯片中。
参考消息网2月25日报道据路透社2月25日报道,英伟达公司的H20人工智能(AI)芯片在中国订单大增,原因是中国企业对深度求索(DeepSeek)低成本AI模型需求增加。报道称,H20芯片是英伟达为中国市场而设计,以符合美国出口管制规定。