分割——识别哪些图像像素属于一个对象——是计算机视觉的核心任务,用于从分析科学图像到编辑照片的广泛应用。但是,为特定任务创建准确的分割模型通常需要技术专家进行高度专业化的工作,他们可以访问AI 培训基础设施和大量经过仔细注释的域内数据。
每经记者:刘明涛 每经编辑:叶峰4月6日,Meta发布了一个AI模型Segment Anything Model(SAM,分割一切模型),能够根据文本指令等方式实现图像分割,而且万物皆可识别和一键抠图。
发布360智脑大语言模型后,10月底,360智慧生活相关负责人在一场发布会上介绍了进展:利用大模型能力,将训练好的模型拆分成多个不同小模型,供用户下载算法至终端上使用,某款户外球机销量已相较以往同类产品翻倍。这是大模型技术不断向前演进的案例之一。
AI领域战火再次升级。这次是人工智能另一重要分支,计算机视觉领域迎来关键转折——4月5日周三,Meta正式推出模型SAM(Segment Anything Model),称这一模型可用于识别图像和视频中的物体,甚至是从未被训练学习过的物品。
21世纪经济报道记者孔海丽、实习生王甜 北京报道继2023年4月首次推出SAM,实现对图像的精准分割后,Meta于北京时间7月30日推出了能够分割视频的新模型SAM 2(Segment Anything Model 2)。SAM 2将图像分割和视频分割功能整合到一个模型中。
编辑:编辑部【新智元导读】Meta又双叒开源了!继去年初代SAM掀翻CV圈之后,SAM 2也完成了终极进化,不仅能分割图像,最惊艳的是还能分割视频。这下,CV可能就真的不存在了。今早,CV圈又炸了!时隔一年多,Meta再次重磅推出「分割一切」2.