参考消息网3月25日报道据美国商业内幕网站3月10日报道,《纽约客》杂志近日报道称,开放人工智能研究中心(OpenAI)的热门聊天机器人ChatGPT一天可能耗电50万千瓦时,来响应约2亿条请求。该杂志报道说,美国家庭平均每天用电约29千瓦时。
羊城晚报全媒体记者 王丹阳人工智能正在重塑我们的生活。但是,在AI大模型百舸争流背后,多项研究表明,大模型运行极其耗电费水,也会带来极高的碳排放量。有网友戏称“只要电费贵过馒头,AI就永远不能完全代替人”。在技术进步与能源消耗的矛与盾之间,将如何破题?
来源:成都商报 “下一个短缺的将是电力。”不久前,围绕人工智能(AI)发展,特斯拉首席执行官马斯克发出这样的预警。他表示,人工智能计算的约束条件是可预测的,“我在一年多前就预测过芯片短缺,下一个短缺的将是电力。我认为明年将没有足够的电力来运行所有的芯片。
近期西班牙《国家报》刊登题为《人工智能已经成为一个环境问题》的文章文章认为生成式人工智能(AI)正在改变整个世界与此同时全球生成式人工智能竞赛让能耗和碳排放量出现飙升2023年7月7日,在瑞士日内瓦“人工智能造福人类全球峰会”上,仿真机器人索菲亚(左)和仿真机器人娜丁交谈。
【CNMO科技】众所周知,机器学习消耗大量的能量。所有这些能够制作视频的人工智能模型都在消耗每小时兆瓦数的电量。但似乎没有人——甚至是开发这项技术的公司——能确切地说出成本是多少。有专家表示,这些数字只是人工智能总消耗量的一小部分。
最近,长期盘踞在人工智能(AI)舆论场中心的OpenAI烦心事有点多:先是对标谷歌搜索的搜索引擎SearchGPT在演示中翻车,紧接着又经历了新一轮高层人事地震。屋漏偏逢连夜雨,特斯拉CEO马斯克再度将OpenAI告上法庭,指控其违反了“开发AI技术以造福人类”的创始使命。
而回到 Helion Energy,2019 年普林斯顿等离子体物理实验室退休的研究员 Daniel Jassby 曾经炮轰 Helion Energy 的技术进路,认为其在进行一种“巫术聚变”,在这份写给《Physics & Society》的信中,Daniel 提到“这家公司宣称在 5 - 10 年内实现核聚变,但却几乎没有产生过一次 D-D 核聚变反应”
21世纪经济报道记者张梓桐 上海报道随着AI大模型的技术竞争进入纵深阶段,行业开始将注意力转向模型训练所需的能源领域。Open AI创始人Sam Altman此前在一场公开活动上表示:“人工智能的未来取决于清洁能源的突破。”英伟达创始人黄仁勋则指出:“AI的尽头是光伏和储能。
每经记者:李孟林 每经编辑:兰素英毫无疑问,人工智能(AI)的浪潮正在以前所未有的速度席卷全球,成为推动科技进步和经济增长的新引擎。然而,在这场技术革命的背后,一个被忽视的挑战正悄然逼近——紧张的电力供应。“明年将没有足够的电力来运行所有的芯片。