MiMo-Embodied是什么
MiMo-Embodied 是小米发布的全球首个开源的跨领域具身大模型,整合了自动驾驶和具身智能两大领域的任务,实现了在环境感知、任务规划、空间理解等多方面的卓越性能。模型基于视觉语言模型(VLM)架构,通过四阶段训练策略,包括具身智能监督微调、自动驾驶监督微调、链式推理微调和强化学习微调,显著提升了跨领域的泛化能力。在自动驾驶领域,MiMo-Embodied 能精准感知交通场景、预测动态目标行为,并生成安全高效的驾驶规划;在具身智能领域,能理解自然语言指令,完成复杂的任务规划和空间推理。MiMo-Embodied 在多项基准测试中超越了现有的开源和专用模型,展现了强大的多模态交互能力。
MiMo-Embodied的主要功能
- 跨领域整合能力:MiMo-Embodied 是首个成功整合自动驾驶与具身智能任务的模型,覆盖环境感知、任务规划、空间理解等核心能力,适用于复杂动态环境中的多模态交互。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
