字节AI概念反复活跃,从软件端到硬件端A股从12月份以来,字节产业相关的概念题材在反复活跃,从前面的豆包AI的软件应用端、AI广告营销等到今天逐步发酵到字节AI硬件端,AI算力、液冷服务器等相关题材概念活跃。
12月19日,A股三大指数涨跌不一。截至收盘,沪指跌0.36%,深成指涨0.61%,创业板指涨0.52%,北证50指数涨3.28%,全市场成交额14647亿元,较上日放量894亿元。全市场超2400只个股上涨。
每经记者:朱成祥 每经编辑:魏官红近日,英伟达CEO黄仁勋在2024 SIEPR经济峰会上透露,下一代DGXGPU服务器将采用液冷散热,并表示即将推出下一代DGX服务器。目前,数据中心主流仍为风冷。而随着生成式AI的火热,液冷逐渐受到追捧。近期,A股市场液冷概念股涨势明显。
本报记者 舒娅疆 蒙婷婷近日,OpenAI宣布将于太平洋时间5月13日10:00(北京时间14日凌晨)直播演示一些关于ChatGPT的大更新。月之暗面近日也宣布对旗下智能助手Kimi进行更新,并推出专业AI助手Kimi+。
算力高需求带动AI芯片加速迭代,性 能升级的同时功耗显著增长,2016年-2022年,CPU平均功耗从 100-130W提升至300-400W,GPU/NPU由250W提升至500W,英 伟达单颗H100的TDP最高达700W,最新发布 B200采用Blackwell架构,功耗达1000W,由2个B200 GPU和1个 Grace CPU组成的GB200解决方案功耗高达2700W,散热路线由风 冷转向液冷。
本报记者 谢岚大模型广泛落地,为企业数字化带来革新和颠覆的同时,也给算力行业带来难题。日前,在ABB电气创新周绿色数据中心论坛上,一众专家围绕“生成式AI为代表的算力需求带来的挑战和机遇”进行深入探讨。
今天的行业风口来聊聊液冷技术。AI催生的多样性算力,正拉动服务器制冷新需求。6月5日,中国移动、中国电信、中国联通三大运营商联合发布了《电信运营商液冷技术白皮书》。按照《白皮书》愿景,三大运营商将再2025年开展液冷技术规模应用,液冷技术将成为服务器的必选项。
随着AI技术的快速兴起,尤其在类似chatGPT的大模型出现后,全球算力规模未来将开启高速增长趋势。今年4月份,华为轮值董事长孟晚舟就曾公开预测,预计到2030年,全球AI算力将增长500倍。按这个速度计算,平均算力翻倍时间为9.9个月,比摩尔定律的18个月快了近一倍!
大模型参数量的增长,数据中心互联互通成为核心关键:在万亿级大数据的背景下,单卡/单服务器算力已经无法支撑庞大模型的训练, 而芯片与芯片之间的互联成为重中之重,集群的效应显得尤为关键,因此在AI的大背景下,由于叶脊网络架构中的服务器交换流量较大, 因此服务器与交换机互联的统一互联互通的数据中心均使用光模块,而光模块传输速度越高,证明其互联互通的效率也就越高,因此在 整体算力芯片架构升级的大背景下,传输速率较高的光模块成为当下的首选。
6月6日,大盘再度飘绿,AI相关产业风口液冷板块却迎来利好消息、开盘狂飙,最终领涨两市。iFinD终端显示,液冷服务器指数上涨1.25%,多支个股触及涨停。实际上,液冷板块近期持续走强,2023年5月中旬至今(2023.5.15-2023.6.
在全球企业自2023年以来布局AI技术的狂热浪潮刺激之下,英伟达最强性能AI GPU服务器——GB200 AI GPU服务器的液冷技术解决方案供应商之一Vertiv 股价自2023年以来已暴涨超600%,2024年以来的涨幅已高达103%。