VLA
Figure机器人进厂打工,8小时速成物流分拣大师!自研VLA模型全面升级
踹掉OpenAI之后,Figure的迭代堪称神速! 几天前才发布了第一款自研视觉-语言-动作(VLA)模型Helix,统一了感知、语言理解和学习控制。 就在刚刚,他们又在一个全新场景中实现了机器人应用的落地——物流包裹操作和分拣。
京东联合地瓜机器人等多家企业高校,推出业内首个具身智能原子技能库架构
具身智能技术突破与应用是通向 AGI 的必经之路,目前全球科技公司正加速布局,包括特斯拉 Optimus、Agility Digit、波士顿动力 Atlas 及 Figure AI 等,今年蛇年春晚机器人“扭秧歌”也成为了人们茶余饭后的谈资。 随着大模型技术的进步,具身智能也迎来了快速的发展。 但在国内众多企业与高校推动相关技术发展的过程中,核心挑战仍在于具身操作泛化能力,即如何在有限具身数据下,使机器人适应复杂场景并实现技能高效迁移。
VLA 技术引领智驾竞赛,英伟达助力黑马企业迅速抢占市场份额
在智能驾驶行业,2025年被视为 “VLA 上车元年”,这标志着一种全新的技术范式正在崭露头角。 VLA,即视觉语言动作模型(Vision-Language-Action Model),最初由 DeepMind 于2023年提出,旨在提升机器人对环境的理解和反应能力。 近年来,这一技术在自动驾驶领域受到了极大的关注。
- 1