如上图 所示,SOTA Transformer 模型中的参数数量以每两年 410 倍的速度增长,而 AI 加速器内存容量仅以每两年 2 倍的速度扩展。人们正在积极研究量化和模型修剪等技术,以减小模型大小。
本报记者 姚尧随着ChatGPT爆火,全球掀起AI(人工智能)大模型热潮。“生成式人工智能是半导体行业迄今为止经历的最大事件之一。”美国电子行业战略咨询公司IBS首席执行官Handel Jones公开表示。
英伟达宣布,针对大型语言模型训练设计,推出全新的H100 NVL计算加速卡。其搭载了两个基于Hopper架构的H100芯片,顶部配备了三个NVLink连接器,在服务器里使用了两个相邻的PCIe全长插槽。
作为 SiFive 支持其客户和更广泛的 RISC-V 生态系统承诺的一部分,SiFive 还宣布打算开源其 SiFive 内核库 的参考实现。每个集群可提供 16 TOPS 或每GHz 8 TFLOPS 算力。
·AMD首席执行官苏姿丰(Lisa Su)表示,AMD的MI300X芯片是“业界最先进的人工智能加速器”,并声称其性能优于英伟达目前的产品。·新的AMD芯片拥有超过1500亿个晶体管,内存是目前市场领先者英伟达H100的2.4倍,内存带宽是其1.6倍。