LIBERO

LIBERO

机器人学习知识转移基准平台

LIBERO是一个致力于研究多任务和终身机器人学习中知识转移的基准平台。它包含130个分组任务、过程生成管道、5个研究主题、3种视觉运动策略网络架构和3种终身学习算法。通过控制分布偏移和提供100个操作任务,LIBERO能够评估特定类型和复杂知识的迁移。该平台为机器人学习研究提供了全面的工具和数据集,有助于推动该领域的发展。

LIBERO机器人学习知识迁移操作任务强化学习Github开源项目
<div align="center"> <img src="https://yellow-cdn.veclightyear.com/ab5030c0/c5ea151e-b92f-4505-894d-127f7511b031.png" width="360"> <p align="center"> <a href="https://github.com/Lifelong-Robot-Learning/LIBERO/actions"> <img alt="测试通过" src="https://yellow-cdn.veclightyear.com/ab5030c0/9ffa7ef8-f2e8-494f-a2e8-6c57a8e71388.svg" /> </a> <a href="https://github.com/Lifelong-Robot-Learning/LIBERO/graphs/contributors"> <img alt="GitHub 贡献者" src="https://img.shields.io/github/contributors/Lifelong-Robot-Learning/LIBERO" /> </a> <a href="https://github.com/Lifelong-Robot-Learning/LIBERO/issues"> <img alt="问题" src="https://img.shields.io/github/issues/Lifelong-Robot-Learning/LIBERO?color=0088ff" />

终身机器人学习知识迁移基准测试

Bo Liu, Yifeng Zhu, Chongkai Gao, Yihao Feng, Qiang Liu, Yuke Zhu, Peter Stone

[网站] [论文] [文档]


pull_figure

</div>

LIBERO旨在研究多任务和终身机器人学习问题中的知识迁移。成功解决这些问题需要关于物体/空间关系的陈述性知识和关于动作/行为的程序性知识。LIBERO提供:

  • 一个程序生成管道,原则上可以生成无限数量的操作任务。
  • 130个任务分为四个任务套件:LIBERO-SpatialLIBERO-ObjectLIBERO-GoalLIBERO-100。前三个任务套件具有受控的分布偏移,意味着它们需要特定类型的知识迁移。相比之下,LIBERO-100由100个操作任务组成,需要复杂知识的迁移。LIBERO-100进一步分为LIBERO-90用于预训练策略和LIBERO-10用于测试智能体的下游终身学习性能。
  • 五个研究主题。
  • 三种视觉运动策略网络架构。
  • 三种终身学习算法,包括顺序微调和多任务学习基准。

目录

安装

请按以下顺序运行命令来安装LIBERO的依赖项。

conda create -n libero python=3.8.13
conda activate libero
git clone https://github.com/Lifelong-Robot-Learning/LIBERO.git
cd LIBERO
pip install -r requirements.txt
pip install torch==1.11.0+cu113 torchvision==0.12.0+cu113 torchaudio==0.11.0 --extra-index-url https://download.pytorch.org/whl/cu113

然后安装libero包:

pip install -e .

数据集

我们为LIBERO中的四个任务套件提供高质量的人工远程操作示范。要下载示范数据集,请运行:

python benchmark_scripts/download_libero_datasets.py

默认情况下,数据集将存储在LIBERO文件夹下,并下载所有四个数据集。要下载特定数据集,请使用

python benchmark_scripts/download_libero_datasets.py --datasets DATASET

其中DATASET[libero_spatial, libero_object, libero_100, libero_goal]中选择。

入门指南

有关详细的操作指南,请参阅文档或notebooks文件夹下提供的notebook示例。以下我们提供了检索任务、训练和评估的示例脚本。

任务

以下是从特定任务套件中检索特定任务的最小示例。

from libero.libero import benchmark from libero.libero.envs import OffScreenRenderEnv benchmark_dict = benchmark.get_benchmark_dict() task_suite_name = "libero_10" # 也可以选择libero_spatial, libero_object等 task_suite = benchmark_dict[task_suite_name]() # 检索特定任务 task_id = 0 task = task_suite.get_task(task_id) task_name = task.name task_description = task.language task_bddl_file = os.path.join(get_libero_path("bddl_files"), task.problem_folder, task.bddl_file) print(f"[info] 从套件{task_suite_name}中检索任务{task_id}," + \ f"语言指令为{task_description},bddl文件为{task_bddl_file}") # 遍历环境 env_args = { "bddl_file_name": task_bddl_file, "camera_heights": 128, "camera_widths": 128 } env = OffScreenRenderEnv(**env_args) env.seed(0) env.reset() init_states = task_suite.get_task_init_states(task_id) # 为了基准测试,我们固定了一组初始状态 init_state_id = 0 env.set_init_state(init_states[init_state_id]) dummy_action = [0.] * 7 for step in range(10): obs, reward, done, info = env.step(dummy_action) env.close()

目前,我们只支持稀疏奖励函数(即,智能体在任务完成时获得+1)。由于稀疏奖励强化学习极难学习,目前我们主要关注终身模仿学习。

训练

要开始终身学习实验,请选择:

  • BENCHMARK[LIBERO_SPATIAL, LIBERO_OBJECT, LIBERO_GOAL, LIBERO_90, LIBERO_10]中选择
  • POLICY[bc_rnn_policy, bc_transformer_policy, bc_vilt_policy]中选择
  • ALGO[base, er, ewc, packnet, multitask]中选择

然后运行以下命令:

export CUDA_VISIBLE_DEVICES=GPU_ID && \ export MUJOCO_EGL_DEVICE_ID=GPU_ID && \ python libero/lifelong/main.py seed=SEED \ benchmark_name=BENCHMARK \ policy=POLICY \ lifelong=ALGO

请参阅文档了解复现研究结果的详细信息。

评估

默认情况下,策略将在训练过程中进行评估。如果您的GPU计算资源有限,我们提供了一个评估脚本,供您单独评估模型。

python libero/lifelong/evaluate.py --benchmark BENCHMARK_NAME \ --task_id TASK_ID \ --algo ALGO_NAME \ --policy POLICY_NAME \ --seed SEED \ --ep EPOCH \ --load_task LOAD_TASK \ --device_id CUDA_ID

引用

如果您发现LIBERO对您的研究有用,请考虑引用我们的论文:

@article{liu2023libero, title={LIBERO: Benchmarking Knowledge Transfer for Lifelong Robot Learning}, author={Liu, Bo and Zhu, Yifeng and Gao, Chongkai and Feng, Yihao and Liu, Qiang and Zhu, Yuke and Stone, Peter}, journal={arXiv preprint arXiv:2306.03310}, year={2023} }

许可证

组件许可证
代码库MIT 许可证
数据集知识共享署名 4.0 国际许可证 (CC BY 4.0)

编辑推荐精选

音述AI

音述AI

全球首个AI音乐社区

音述AI是全球首个AI音乐社区,致力让每个人都能用音乐表达自我。音述AI提供零门槛AI创作工具,独创GETI法则帮助用户精准定义音乐风格,AI润色功能支持自动优化作品质感。音述AI支持交流讨论、二次创作与价值变现。针对中文用户的语言习惯与文化背景进行专门优化,支持国风融合、C-pop等本土音乐标签,让技术更好地承载人文表达。

QoderWork

QoderWork

阿里Qoder团队推出的桌面端AI智能体

QoderWork 是阿里推出的本地优先桌面 AI 智能体,适配 macOS14+/Windows10+,以自然语言交互实现文件管理、数据分析、AI 视觉生成、浏览器自动化等办公任务,自主拆解执行复杂工作流,数据本地运行零上传,技能市场可无限扩展,是高效的 Agentic 生产力办公助手。

lynote.ai

lynote.ai

一站式搞定所有学习需求

不再被海量信息淹没,开始真正理解知识。Lynote 可摘要 YouTube 视频、PDF、文章等内容。即时创建笔记,检测 AI 内容并下载资料,将您的学习效率提升 10 倍。

AniShort

AniShort

为AI短剧协作而生

专为AI短剧协作而生的AniShort正式发布,深度重构AI短剧全流程生产模式,整合创意策划、制作执行、实时协作、在线审片、资产复用等全链路功能,独创无限画布、双轨并行工业化工作流与Ani智能体助手,集成多款主流AI大模型,破解素材零散、版本混乱、沟通低效等行业痛点,助力3人团队效率提升800%,打造标准化、可追溯的AI短剧量产体系,是AI短剧团队协同创作、提升制作效率的核心工具。

seedancetwo2.0

seedancetwo2.0

能听懂你表达的视频模型

Seedance two是基于seedance2.0的中国大模型,支持图像、视频、音频、文本四种模态输入,表达方式更丰富,生成也更可控。

nano-banana纳米香蕉中文站

nano-banana纳米香蕉中文站

国内直接访问,限时3折

输入简单文字,生成想要的图片,纳米香蕉中文站基于 Google 模型的 AI 图片生成网站,支持文字生图、图生图。官网价格限时3折活动

扣子-AI办公

扣子-AI办公

职场AI,就用扣子

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

堆友

堆友

多风格AI绘画神器

堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。

图像生成AI工具AI反应堆AI工具箱AI绘画GOAI艺术字堆友相机AI图像热门
码上飞

码上飞

零代码AI应用开发平台

零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

下拉加载更多