每经记者:刘明涛 每经编辑:叶峰4月6日,Meta发布了一个AI模型Segment Anything Model(SAM,分割一切模型),能够根据文本指令等方式实现图像分割,而且万物皆可识别和一键抠图。
2023 年 4 月,Meta 发布了全新的 AI 模型 Segment Anything Model,即 SAM。根据学习范式和发展阶段的不同,预训练模型可以简单划分为四代:基于特征的学习:第一代预训练模型,根据“人的知识”设置规则来提取文本特征,以此来对文本进行编码。
该创新成果发表在 2023 年 4 月 5 日发表的一篇研究论文中,它立即引起了公众的广泛兴趣——相关的 Twitter 帖子迄今为止已累积超过 350 万次浏览:计算机视觉专业人士现在将注意力转向 SAM——但为什么呢?
AI领域战火再次升级。这次是人工智能另一重要分支,计算机视觉领域迎来关键转折——4月5日周三,Meta正式推出模型SAM(Segment Anything Model),称这一模型可用于识别图像和视频中的物体,甚至是从未被训练学习过的物品。
·SegGPT是一个利用视觉提示完成任意分割任务的通用视觉模型,具备上下文推理能力,训练完成后无需微调,只需提供示例即可自动推理并完成对应分割任务,包括图像和视频中的实例、类别、零部件、轮廓、文本、人脸、医学图像等。
继图像分割模型(SAM) 取得成功之后,meta发布了SAM 2,这是一个用于在图像和视频中实时对象分割的统一模型。SAM 2 可以分割任何视频或图像中的任何对象 - 即使对于以前从未见过的对象和视觉域也是如此,从而无需进行自定义调整即可实现多种对象的分割。