《科创板日报》7月31日讯(编辑 郑远方)一个单臂机器人“站”在桌前,桌上放着三个塑料动物玩具:狮子、鲸鱼与恐龙。收到“捡起灭绝的动物”指令后,这个机器人“思考”了一会儿,然后伸出机械臂,打开爪子,抓起了恐龙。
机器人前瞻2月21日报道,刚刚,美国人形机器人独角兽Figure AI重磅推出了一款通用型视觉语言动作模型——Helix,能够将感知、语言理解与学习控制融为一体,首次实现了对人形机器人完整上半身高速连续控制。
2月21日,Figure 在官网上推出了首个适用于人形机器人的端到端VLA 模型Helix,这是继2月5日Figure 与Open AI中止合作后推出的重要工作,是视觉-语言-动作(VLA )模型首次在成熟的人形机器人产品中落地。
“太多人关注终局,更重要的是路径和速度。”文丨程曼祺编辑丨宋玮这是《晚点 LatePost》 「具身智能对话」系列的第 9 篇。该系列将持续访谈智能机器人和自动驾驶产业链头部公司。往期文章见文末合集#具身智能对话。
潮新闻客户端 记者 张云山近日,云深处科技首次公开机器狗与浙江大学 “AI大脑”合作最新成果,基于大模型的机器人智能决策系统“机器人云脑”为X30机器狗赋能“大脑”,搭载该系统的X30机器狗不仅可以开口说话,理解人类自然语言,还学会了识别理解抽象图像,欣赏梵高画作,感知并抚慰人类
来源:证券日报 本报记者 龚梦泽纵观自动驾驶技术的发展历程,人工智能的不断突破显著提升了自动驾驶的感知性能。2025年以来,一种全新的技术范式,即视觉语言动作模型(VLA,Vision-Language-Action)正在加速崛起。