omnisafe

omnisafe

安全强化学习框架加速AI系统安全研究

OmniSafe是一个用于安全强化学习(SafeRL)研究的开源框架。它提供了全面的SafeRL算法基准测试和模块化工具包。该框架采用高度模块化设计,支持高性能并行计算,并提供开箱即用的工具。OmniSafe实现了多种类型的SafeRL算法,包括基于策略、无模型和基于模型等。通过丰富的教程和API,框架适合不同水平的研究人员使用。OmniSafe致力于推动SafeRL领域的发展,为AI系统安全性研究提供重要支持。

SafeRLOmniSafe强化学习安全强化学习算法框架Github开源项目
<!-- markdownlint-disable first-line-h1 --> <!-- markdownlint-disable html --> <div align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/22ef185b-2408-4df6-b579-c6fe4bbdbdbd.png" width="75%"/> </div> <div align="center">

组织 PyPI 测试 文档状态 下载量 GitHub 仓库星标 代码风格 许可证 代码覆盖率 在 Colab 中打开

</div> <p align="center"> <a href="https://omnisafe.readthedocs.io">文档</a> | <a href="https://github.com/PKU-Alignment/omnisafe#implemented-algorithms">已实现算法</a> | <a href="https://github.com/PKU-Alignment/omnisafe#installation">安装</a> | <a href="https://github.com/PKU-Alignment/omnisafe#getting-started">入门</a> | <a href="https://github.com/PKU-Alignment/omnisafe#license">许可证</a> </p>

OmniSafe 是一个旨在加速安全强化学习(RL)研究的基础框架。它为安全 RL 算法提供了全面可靠的基准,同时也为研究人员提供了即用型的模块化工具包。SafeRL 旨在开发能够最小化意外伤害或不安全行为风险的算法。

OmniSafe 是安全强化学习领域首个统一学习框架,旨在促进 SafeRL 学习社区的成长。OmniSafe 的主要特点:

  • 高度模块化框架。 OmniSafe 提供了一个高度模块化的框架,包含了数十种针对不同领域安全强化学习的算法。该框架由于抽象了各种算法类型并设计了良好的 API,使用了适配器和包装器设计组件来弥合差距并实现不同组件之间的无缝交互,因此具有很强的versatility。这种设计允许轻松扩展和定制,使其成为开发人员处理不同类型算法的强大工具。

  • 高性能并行计算加速。 通过利用 torch.distributed 的功能,OmniSafe 使用进程并行加速算法学习过程。这使得 OmniSafe 不仅支持环境级异步并行,还包含了agent异步学习。这种方法通过部署并行探索机制增强了训练稳定性并加快了训练过程。OmniSafe 中集成的 agent 异步学习凸显了其致力于为推进 SafeRL 研究提供通用和强大平台的承诺。

  • 即用型工具包。 OmniSafe 为训练、基准测试、分析和渲染等任务提供可定制的工具包。教程和用户友好的 API 使初学者和普通用户易于使用,而高级研究人员则可以在无需复杂代码的情况下提高效率。

训练视频


目录 <!-- omit in toc --> <!-- markdownlint-disable heading-increment -->


快速开始

安装

前提条件

OmniSafe 需要 Python 3.8+ 和 PyTorch 1.10+。

我们支持并测试 Linux 上的 Python 3.8、3.9、3.10。同时,我们还支持 macOS 的 M1 和 M2 版本。我们会接受与 Windows 相关的 PR,但不正式支持它。

从源代码安装

# 克隆仓库 git clone https://github.com/PKU-Alignment/omnisafe.git cd omnisafe # 创建 conda 环境 conda env create --file conda-recipe.yaml conda activate omnisafe # 安装 omnisafe pip install -e .

从 PyPI 安装

OmniSafe 托管在 PyPI / 状态

pip install omnisafe

已实现算法

<details> <summary><b><big>最新 SafeRL 论文</big></b></summary> </details> <details> <summary><b><big>算法列表</big></b></summary> <summary><b><big>在策略 SafeRL</big></b></summary> <summary><b><big>离策略 SafeRL</big></b></summary> <summary><b><big>基于模型的 SafeRL</big></b></summary> - [ ] **[NeurIPS 2021]** [通过想象近期未来实现安全强化学习 (SMBPO)](https://arxiv.org/abs/2202.07789) - [x] **[CoRL 2021 (口头报告)]** [使用在线规划进行离策略学习 (SafeLOOP)](https://arxiv.org/abs/2008.10066) - [x] **[AAAI 2022]** [基于模型的安全强化学习的保守和自适应惩罚 (CAP)](https://arxiv.org/abs/2112.07701) - [x] **[NeurIPS 2022]** [基于约束近端策略优化算法的模型安全深度强化学习](https://arxiv.org/abs/2210.07573) - [ ] **[ICLR 2022]** [基于贝叶斯世界模型的约束策略优化 (LA-MBDA)](https://arxiv.org/abs/2201.09802) - [x] **[ICML 2022 研讨会]** [使用鲁棒交叉熵方法的约束模型强化学习 (RCE)](https://arxiv.org/abs/2010.07968) - [x] **[NeurIPS 2018]** [用于安全强化学习的约束交叉熵方法 (CCE)](https://proceedings.neurips.cc/paper/2018/hash/34ffeb359a192eb8174b6854643cc046-Abstract.html) <summary><b><big>离线安全强化学习</big></b></summary> <summary><b><big>其他</big></b></summary> </details>

示例

cd examples python train_policy.py --algo PPOLag --env-id SafetyPointGoal1-v0 --parallel 1 --total-steps 10000000 --device cpu --vector-env-nums 1 --torch-threads 1

算法注册表

<table> <thead> <tr> <th>领域</th> <th>类型</th> <th>算法注册表</th> </tr> </thead> <tbody> <tr> <td rowspan="5">在线策略</td> <td rowspan="2">原始-对偶</td> <td>TRPOLag; PPOLag; PDO; RCPO</td> </tr> <tr> <td>TRPOPID; CPPOPID</td> </tr> <tr> <td>凸优化</td> <td><span style="font-weight:400;font-style:normal">CPO; PCPO; </span>FOCOPS; CUP</td> </tr> <tr> <td>惩罚函数</td> <td>IPO; P3O</td> </tr> <tr> <td>原始</td> <td>OnCRPO</td> </tr> <tr> <td rowspan="2">离线策略</td> <td rowspan="2">原始-对偶</td> <td>DDPGLag; TD3Lag; SACLag</td> </tr> <tr> <td><span style="font-weight:400;font-style:normal">DDPGPID; TD3PID; SACPID</span></td> </tr> <tr> <td rowspan="2">基于模型</td> <td>在线规划</td> <td>SafeLOOP; CCEPETS; RCEPETS</td> </tr> <tr> <td><span style="font-weight:400;font-style:normal">悲观估计</span></td> <td>CAPPETS</td> </tr> <td rowspan="2">离线</td> <td>基于Q学习</td> <td>BCQLag; C-CRR</td> </tr> <tr> <td>基于DICE</td> <td>COptDICE</td> </tr> <tr> <td rowspan="3">其他MDP公式</td> <td>ET-MDP</td> <td><span style="font-weight:400;font-style:normal">PPO</span>EarlyTerminated; TRPOEarlyTerminated</td> </tr> <tr> <td>SauteRL</td> <td>PPOSaute; TRPOSaute</td> </tr> <tr> <td>SimmerRL</td> <td><span style="font-weight:400;font-style:normal">PPOSimmerPID; TRPOSimmerPID</span></td> </tr> </tbody> </table>

支持的环境

以下是Safety-Gymnasium支持的环境列表:

<table border="1"> <thead> <tr> <th>类别</th> <th>任务</th> <th>智能体</th> <th>示例</th> </tr> </thead> <tbody> <tr> <td rowspan="4">安全导航</td> <td>Goal[012]</td> <td rowspan="4">Point, Car, Racecar, Ant</td> <td rowspan="4">SafetyPointGoal1-v0</td> </tr> <tr> <td>Button[012]</td> </tr> <tr> <td>Push[012]</td> </tr> <tr> <td>Circle[012]</td> </tr> <tr> <td>安全速度</td> <td>Velocity</td> <td>HalfCheetah, Hopper, Swimmer, Walker2d, Ant, Humanoid</td> <td>SafetyHumanoidVelocity-v1</td> </tr> <tr> <td rowspan="4">Safe Isaac Gym</td> <td>OverSafeFinger</td> <td rowspan="4">ShadowHand</td> <td rowspan="4">ShadowHandOverSafeFinger</td> </tr> <tr> <td>OverSafeJoint</td> </tr> <tr> <td>CatchOver2UnderarmSafeFinger</td> </tr> <tr> <td>CatchOver2UnderarmSafeJoint</td> </tr> </tbody> </table>

有关环境的更多信息,请参阅Safety-Gymnasium

自定义环境

我们提供了一个灵活的自定义环境接口,允许用户在不修改OmniSafe源代码的情况下实现以下功能:

  • 使用OmniSafe在自定义环境上训练算法。
  • 使用指定的个性化参数创建环境。
  • 在Logger中完成环境特定信息的记录。

我们提供了关于从头开始自定义环境从社区自定义环境分步教程,为您详细介绍如何使用OmniSafe的这一出色功能。

注意:如果您在自定义环境时遇到困难,请随时开启issuediscussion。如果您愿意贡献环境接口的实现,我们也欢迎Pull requests

使用命令行界面

pip install omnisafe omnisafe --help # 寻求帮助 omnisafe benchmark --help # benchmark也可以替换为'eval'、'train'、'train-config' # 快速为您的研究进行基准测试,只需指定: # 1. exp_name # 2. num_pool(并发进程数) # 3. 配置文件路径(格式参考omnisafe/examples/benchmarks) # 这里我们在./tests/saved_source中提供了一个示例。 # 您可以按照它来设置您的benchmark_config.yaml omnisafe benchmark test_benchmark 2 ./tests/saved_source/benchmark_config.yaml # 快速评估和渲染您训练的策略,只需指定: # 1. 您训练的算法路径 omnisafe eval ./tests/saved_source/PPO-{SafetyPointGoal1-v0} --num-episode 1 # 快速训练一些算法以验证您的想法 # 注意:使用`key1:key2`,您可以递归选择超参数的键,使用`--custom-cfgs`,您可以通过命令行添加自定义配置 omnisafe train --algo PPO --total-steps 2048 --vector-env-nums 1 --custom-cfgs algo_cfgs:steps_per_epoch --custom-cfgs 1024 # 通过保存的配置文件快速训练一些算法,格式与默认格式相同 omnisafe train-config ./tests/saved_source/train_config.yaml

入门指南

重要提示

我们已经提供了各种算法的基准测试结果,包括在线策略、离线策略、基于模型和离线方法,以及参数调优分析。请参考以下内容:

快速开始:云端Colab

通过一系列Google Colab笔记本轻松快速地探索OmniSafe:

  • 入门指南 介绍OmniSafe的基本用法,让用户能够快速上手。
  • CLI命令 介绍如何使用OmniSafe的命令行工具。

我们非常乐意与用户合作,创建各种语言的教程。请参考我们当前支持的语言列表。如果您有兴趣将教程翻译成新的语言或改进现有版本,请向我们提交PR。


更新日志

请查看CHANGELOG.md

引用OmniSafe

如果您觉得OmniSafe有用或在研究中使用了OmniSafe,请在您的出版物中引用它。

@article{omnisafe, title = {OmniSafe: An Infrastructure for Accelerating Safe Reinforcement Learning Research}, author = {Jiaming Ji, Jiayi Zhou, Borong Zhang, Juntao Dai, Xuehai Pan, Ruiyang Sun, Weidong Huang, Yiran Geng, Mickel Liu, Yaodong Yang}, journal = {arXiv preprint arXiv:2305.09304}, year = {2023} }

使用OmniSafe的出版物

我们列出了一份使用OmniSafe进行算法实现或实验的论文清单。如果您愿意将您的工作列入此清单,或者希望将您的实现正式整合到OmniSafe中,请随时联系我们

论文发表方
Off-Policy Primal-Dual Safe Reinforcement LearningICLR 2024
Safe Offline Reinforcement Learning with Feasibility-Guided Diffusion ModelICLR 2024
Iterative Reachability Estimation for Safe Reinforcement LearningNeurIPS 2023
Balance Reward and Safety Optimization for Safe Reinforcement Learning: A Perspective of Gradient ManipulationAAAI 2024
Learning Safety Constraints From Demonstration Using One-Class Decision TreesAAAI 2024 WorkShops

OmniSafe团队

OmniSafe主要由杨耀东教授指导的SafeRL研究团队开发。我们的SafeRL研究团队成员包括张博荣周嘉仪戴俊涛黄伟东孙瑞阳潘雪海纪佳铭。如果您在使用OmniSafe的过程中有任何问题,请随时在GitHub问题页面上提出问题,我们会在2-3个工作日内回复您。

许可证

OmniSafe基于Apache License 2.0发布。

编辑推荐精选

扣子-AI办公

扣子-AI办公

职场AI,就用扣子

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

堆友

堆友

多风格AI绘画神器

堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。

图像生成AI工具AI反应堆AI工具箱AI绘画GOAI艺术字堆友相机AI图像热门
码上飞

码上飞

零代码AI应用开发平台

零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

下拉加载更多