大模型为何成了耗能大户?据斯坦福人工智能研究所发布的《2023年AI指数报告》,AI大语言模型GPT-3一次训练的耗电量为1287兆瓦时,大概相当于3000辆特斯拉电动汽车共同开跑、每辆车跑20万英里所耗电量的总和。
中新社北京8月19日电 (记者 陈杭)中国工程院院士邬贺铨19日在2024北京人工智能生态大会上表示,人工智能是新质生产力的引擎,大模型的发展仍然需要“大力出奇迹”,多措并举提升对物理世界的模拟能力。算力、数据等是促进人工智能发展的关键要素。
人工智能大模型以其庞大的参数规模和海量的训练数据量著称,需要由数千块AI芯片组成的服务器集群来支撑其运算。相关数据显示,在10天内训练1000亿参数规模、1PB训练数据集,约需1.08万个英伟达A100GPU。这一数字揭示了AI大模型背后巨大的经济成本。
自Open AI推出ChatGPT大模型以来,AI大模型进入到公众视野,探讨热度飙升,百度、腾讯、阿里等互联网巨头也纷纷公布了其对AI大模型的投资与布局路线图。然而,在一片火热中,也有不少科技巨头表达了对AI大模型的担忧。
本报记者 王柯瑾 北京报道随着人工智能(AI)技术的飞速发展,大模型正成为全球关注的焦点,预示着未来科技的重大变革。就金融领域的应用来看,短短两年时间,从百亿级别参数到千亿级别参数,以银行为主要代表的金融机构从布局到破局,试图不断解锁AI在金融业的潜力和应用边界。
目前成熟的生成式AI模型大多基于英文数据进行训练,在国内各行各业的应用环境中,中文大模型显然更“接地气”。通过中文或英文数据训练出来的大模型,差异比较大,中文的上下文理解和语义的多解性要大于英文。大模型首先要理解人类意图,因此对于国内用户来说,用中文去训练的大模型比较适用。