Ai2发布MolmoAct 2开源机器人基础模型,聚焦真实世界自动化

5月14日,总部位于西雅图的艾伦人工智能研究所(Ai2)正式发布了MolmoAct 2,这是一款开源机器人基础模型,旨在提升机器人执行真实世界物理任务的能力。与多数仅在实验室受控环境下展示的机器人系统不同,MolmoAct 2将重点放在适应复杂、动态的真实环境上,推动自动化系统从可控演示迈向实用部署。

MolmoAct 2基于前代模型进行了全面升级,采用多模态架构同时处理视觉输入和自然语言指令。据Ai2介绍,该模型使用了大规模多样化机器人操作数据进行训练,覆盖抓取、放置、组装等多种任务,从而使机器人能够理解模糊的自然语言指令并泛化到未见过的工作场景。模型权重与相关代码将以开源形式发布,便于研究社区复现、微调和二次开发。

Ai2 MolmoAct 2 机器人模型概念图
Ai2 MolmoAct 2 概念示意图,来自 roboticsandautomationnews.com

开源策略与社区意义

Ai2在开源AI领域拥有长期积累,此前曾推出OLMo等著名语言模型。MolmoAct 2继承了这一传统,通过开源许可证向学术界和产业界提供完整基础模型。在机器人研究领域,开源基础模型有助于降低入行门槛,使更多团队能够基于强大预训练模型进行领域微调,加速真实场景下的自动化解决方案开发。与Google DeepMind的RT-2、OpenVLA等既有开源模型相比,MolmoAct 2强调在“非受控”环境下的鲁棒性,据官方说明其在遮挡、光照变化以及物体杂乱的场景下表现出优于同类模型的成功率。

当前,机器人基础模型正从学术实验走向工业试用。Ai2选择将MolmoAct 2完全开源,意图建立更广泛的开发者生态系统,推动机器人学习从单一实验室走向多元化应用。业界评论认为,此举有望缩短仿真环境与真实世界执行之间的差距,特别是在仓储物流、家庭服务和轻型制造等需要灵活操作的领域。

MolmoAct 2的发布代表着机器人基础模型领域的一次重要推进,其开源特性与真实世界导向为后续研究提供了可复用的基础设施。随着更多组织加入开源机器人模型的开发,自动化系统的部署成本和泛化能力有望得到持续改善。

本文参考来源:Robotics & Automation News

发表回复