不久前,围绕人工智能发展,特斯拉首席执行官马斯克发出这样的预警。他表示,人工智能计算的约束条件是可预测的,“我在一年多前就预测过芯片短缺,下一个短缺的将是电力。我认为明年将没有足够的电力来运行所有的芯片。”
AI大模型技术的高能耗问题正在被学术界以及产业界高度关切。近日,特斯拉总裁埃隆·马斯克表达担忧:“AI技术的发展速度前所未见,到了明年人类就没有足够的电力来运行所有的芯片了。”在年初达沃斯会议上,OpenAI首席执行官萨姆·奥特曼表示,AI技术消耗的电力将远远超出人们预期。
本报记者 索寒雪 北京报道“我参加会议遇到的所有预测,都是气候会越来越热。”日前,某全球独立性非政府环境保护组织中国区负责人向《中国经营报》记者表示。在全球变暖的背景下,中国一边大力发展AI,需要更多的算力以及更高的耗能,一边又在向“双碳”目标积极迈进。
本报记者 索寒雪 北京报道算力是AI大模型的基础底座,AI的快速发展,对能源提出了更高的需求。“我们申请建立数据中心,审批所考虑的第一件事情就是能耗。”一家央企运营商数据部门人士向《中国经营报》记者介绍,“这是能评中,很重要的一个内容。
来源:【北京大学出版社】【导读】10月19日上午,由文汇讲堂和北大博雅讲坛联合承办,上海市算力网络协会、北京大学出版社、上海图书馆联合主办的“展望下一代算力暨《对话时代》新书研讨讲座上海场”在上图东馆成功举办,近10万人次观看直播。
来源:【贵州广播电视台-动静新闻】据报道,ChatGPT 每响应一个请求平均耗电2.9瓦时,每天响应约2亿个需求消耗超过50万度电。当前,算力已成为全球新一轮科技革命和产业变革的必争之地,而作为算力底座的数据中心正是“用电大户”。
1.05万亿千瓦时(kW·h)!这是国际能源署(International Energy Agency,以下简称“IEA”)日前发布的《电力2024》报告中,对2026年全球数据中心的最高总用电量作出的预测。
人工智能(AI)的快速发展正在带来巨额能源消耗的担忧,“AI尽头是能源”的说法引发热议。软银旗下芯片设计公司Arm首席执行官雷内·哈斯(Rene Haas)近日表示,AI对算力的巨大需求正威胁着能源供应。
21世纪经济报道记者 赵云帆 报道人工智能(AI)的未来是星辰大海,但什么是它的苟且现实?早前,人们以为AI的瓶颈是算力芯片即将到来理论极限——即便是量子计算机,当前也因为并不擅长纯逻辑运算,而被排除在大量部署算力系统之外。
当AI遇上电力,一场静默的能源革命正在发生。2025年,全球AI算力需求以指数级速度攀升,而支撑这一增长的底层逻辑并非仅仅是芯片,而是电力——这一曾被视作传统工业血液的能源,正在成为数字经济的“新石油”。
每经编辑:毕陆名据证券时报,据《纽约客》杂志报道,OpenAI的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应用户的约2亿个请求。相比之下,美国家庭平均每天使用约29千瓦时电力,也就是说,ChatGPT每天用电量是家庭用电量的1.7万多倍。