在元宇宙上亏的,Meta想一点点找回来。在主要营收来源广告出现裂痕的情况下,开启付费认证是其开源的第一步,也是寻求商业化的最新一步。不过,十几美元比起百亿美元的窟窿来说,或许只是杯水车薪。而安全性和真实性也是现实问题,毕竟此前推特“加V”的闹剧还历历在目。
·Meta发布Llama 3.1开源大模型系列,包括最大的版本Llama 3.1 405B,轻量级的Llama 3.1 8B和Llama 3.1 70B,任何人都可以免费使用。扎克伯格表示,开源人工智能是前进之路,人工智能开发将继续保持非常激烈的竞争,开源正在迅速缩小差距。
北京时间7月23日晚,Meta 正式发布最新的开源大模型Llama 3.1系列,进一步缩小了开源模型与闭源模型的差距。Llama 3.1包含8B、70B和450B 3个参数规模,其中450B参数的模型在多项基准测试中超过了OpenAI的GPT-4o,与Claude 3.
当地时间1月29日,Meta首席执行官马克·扎克伯格宣布免费开源Code Llama 70B参数模型。据介绍,Code Llama 70B可以处理比先前版本更多的查询,这意味着开发人员可以在编程时提供更多提示,并且它可以更准确。
开源阵营迎来新的“大家伙”。当地时间7月23日,Meta正式发布Llama 3.1。在官方博客中,Meta称该模型是目前“最强大的开源基础模型”,并表示:“直到今天,开源大模型在功能和性能方面大多落后于封闭模型。现在,我们正在迎来一个开源引领的新时代。
·ImageBind是第一个将六种类型的数据结合到一个单一的嵌入空间的模型。该模型包括的六种数据是:视觉(图像和视频形式)、热力(红外图像)、文本、音频、深度信息和运动读数。·其他可以被添加到未来模型中的感官输入流包括“触摸、讲话、气味和大脑fMRI(功能性磁共振成像)信号”。
编辑:编辑部【新智元导读】Meta又双叒开源了!继去年初代SAM掀翻CV圈之后,SAM 2也完成了终极进化,不仅能分割图像,最惊艳的是还能分割视频。这下,CV可能就真的不存在了。今早,CV圈又炸了!时隔一年多,Meta再次重磅推出「分割一切」2.
每经记者:文巧 每经编辑:兰素英在推出开源大模型LLaMA2近一年之后,Meta的新一代大模型LLaMA 3即将面世。在4月9日伦敦举行的一次活动中,Meta确认计划在下个月内首次发布LLaMA 3。据了解,该模型将有多个具有不同功能的版本。
7月18日,Meta公司发布了首个开源人工智能模型Llama的商业版本 Llama 2,这也是大型科技公司首个开源的商用大模型,将为初创企业和其他企业提供OpenAI和谷歌的替代方案。该模型也因此被称为GPT4的“最强平替”。此前Meta仅向指定学者提供用于研究目的的模型。
21世纪经济报道记者 王俊 实习生 罗洛 北京报道大模型的竞争格局迎来重要节点。近日,脸书母公司Meta宣布将推出开源大型语言模型Llama 2,可免费用于研究和商业用途。原本与OpenAI长期、深入合作的微软则成了此次Llama 2的“首选合作伙伴”。
北京时间7月23日晚,Meta发布最新开源模型Llama 3.1,拥有8B(80亿)、70B(700亿)和405B(4050亿)三个参数版本。Meta宣称Llama 3.1 405B可媲美OpenAI和Anthropic旗下最好的闭源模型。