当地时间7月31日,谷歌宣布,Gemma 2系列新增小模型Gemma 2B(20亿参数)。在大模型竞技场 LMSYS Chatbot Arena 中,Gemma 2B得分高于 GPT-3.5-Turbo。
6月28日,谷歌宣布面向全球研究人员和开发者发布Gemma 2大语言模型。据介绍,Gemma 2有90亿(9B)和270亿(27B)两种参数大小,与第一代相比,其性能更高、推理效率更高,并且内置了显著的安全改进。
每经记者:文巧 每经实习记者:岳楚鹏 每经编辑:兰素英|2024年8月1日 星期四|NO.1谷歌DeepMind推出2B参数Gemma 2模型谷歌DeepMind今天宣布发布其Gemma AI模型的第二代——Gemma 2的20亿(2B)参数版本。
来源:环球网 【环球网科技报道 记者 李文瑶】8月9日,在刚刚落幕的 2024年I/O Connect China谷歌开发者大会上,谷歌面向中国开发者介绍了谷歌在人工智能(AI)、移动、云计算和Web技术等领域的最新创新成果。
这次,谷歌连珠炮般甩出了22项AI大招,包括公布200万tokens超长上下文Gemini 1.5 Pro进阶版、Gemini 1.5 Flash轻量级模型、通用AI Agent、高质量文生图模型Imagen 3、AI音乐创作工具Music AI Sandbox、70秒视频生成模型Veo、首个视觉语言开放模型PaliGemma等多款模型,还剧透了下一代Gemma 2大模型。
当地时间5月14日,在谷歌I/O开发者大会上的主题演讲中,谷歌展示了由升级后Gemini模型驱动的AI助手项目Project Astra、对标Sora的文生视频模型Veo,以及在硬件方面发布的第六代Tensor处理器单元Trillium芯片。
人工智能大模型以其庞大的参数规模和海量的训练数据量著称,需要由数千块AI芯片组成的服务器集群来支撑其运算。相关数据显示,在10天内训练1000亿参数规模、1PB训练数据集,约需1.08万个英伟达A100GPU。这一数字揭示了AI大模型背后巨大的经济成本。
本报记者 曲忠芳 北京报道2020年,OpenAI团队发表论文,正式提出了大模型开发的经验法则Scaling Law,目前它并没有统一的中文名称,大致可以理解为“规模法则”,更通俗地说是“大力出奇迹”。