Meta推出MoDem世界模型:解决视觉领域三大挑战,LeCun转发

12月27日,MetaAI 负责视觉和强化学习领域的A

Meta推出MoDem世界模型:解决视觉领域三大挑战,LeCun转发

截止27日晚间,这篇推文的阅读量已经达到73.9k。

Meta推出MoDem世界模型:解决视觉领域三大挑战,LeCun转发

他表示,仅给出5个演示,MoDem就能在100K交互步骤中解决具有稀疏奖励和高维动作空间的具有挑战性的视觉运动控制任务,大大优于现有的最先进方法。

有多优秀呢?

他们发现MoDem在完成稀疏奖励任务方面的成功率比低数据机制中的先前方法高出150%-250%

Meta推出MoDem世界模型:解决视觉领域三大挑战,LeCun转发

Lecun也转发了这一研究,表示MoDem的模型架构类似于JEPA,可在表征空间做出预测且无需解码器。

Meta推出MoDem世界模型:解决视觉领域三大挑战,LeCun转发

链接小编就放在下面啦,有兴趣的小伙伴可以看看~

Meta推出MoDem世界模型:解决视觉领域三大挑战,LeCun转发

论文链接:https://arxiv.org/abs/2212.05698

Github链接:https://github.com/facebookresearch/modem

研究创新和模型架构

样本效率低下是实际应用部署深度强化学习 (RL) 算法的主要挑战,尤其是视觉运动控制。

基于模型的RL有可能通过同时学习世界模型并使用合成部署来进行规划和政策改进,从而实现高样本效率。

然而在实践中,基于模型的RL的样本高效学习受到探索挑战的瓶颈,这次研究恰恰解决了这些主要挑战。

首先,MoDem分别通过使用世界模型、模仿+RL和自监督视觉预训练,解决了视觉强化学习/控制领域的三个主要挑战:

  • 大样本复杂性(Large sample complexity)
  • 高维状态和动作空间探索(Exploration in high-dimensional state and action space)
  • 同步视觉表征和行为学习(Simultaneous learning of visual representations and behaviors)

Meta推出MoDem世界模型:解决视觉领域三大挑战,LeCun转发

这次的模型架构类似于Yann LeCun的JEPA,并且无需解码器。

作者Aravind Rajeswaran表示,相比Dreamer需要像素级预测的解码器,架构繁重,无解码器架构可支持直接插入使用SSL预训练的视觉表示。

Meta推出MoDem世界模型:解决视觉领域三大挑战,LeCun转发

此外基于IL+RL,他们提出了一个三阶段算法:

  • BC预训练策略
  • 使用包含演示和探索的种子数据集预训练世界模型,此阶段对于整体稳定性和效率很重要
  • 通过在线互动微调世界模型

Meta推出MoDem世界模型:解决视觉领域三大挑战,LeCun转发

结果显示,生成的算法在21个硬视觉运动控制任务中取得了SOTA结果(State-Of-The-Art result),包括Adroit灵巧操作、MetaWorld和DeepMind控制套件。

从数据上来看,MoDem在各项任务中的表现远远优于其他模型,结果比之前的SOTA方法提升了150%到250%。

Meta推出MoDem世界模型:解决视觉领域三大挑战,LeCun转发

红色线条为MoDem在各项任务中的表现

在此过程中,他们还阐明了MoDem中不同阶段的重要性、数据增强对视觉MBRL的重要性以及预训练视觉表示的实用性。

最后,使用冻结的 R3M 功能远远优于直接的 E2E 方法。这很令人兴奋,表明视频中的视觉预训练可以支持世界模型。

但8月数据强劲的E2E与冻结的R3M竞争,我们可以通过预训练做得更好。

Meta推出MoDem世界模型:解决视觉领域三大挑战,LeCun转发

文章版权声明

 1 原创文章作者:非白,如若转载,请注明出处: https://www.52hwl.com/52104.html

 2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈

 3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)

 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023年7月16日 下午4:16
下一篇 2023年7月16日 下午4:17